EU AI Act.
A sua IA está em conformidade?
O EU AI Act é a primeira regulamentação abrangente de IA do mundo. Classifica os sistemas de IA por nível de risco — desde práticas proibidas até obrigações mínimas. A maioria dos requisitos aplica-se a partir de 2 de agosto de 2026.
até 2 de agosto de 2026
Sistemas de IA classificados por risco
O EU AI Act utiliza uma abordagem baseada no risco. Todos os fornecedores e responsáveis pela implantação de sistemas de IA no mercado da UE devem classificar os seus sistemas num dos quatro níveis de risco.
Social Scoring
ProibidoVigilância biométrica
ProibidoPontuação de crédito
Alto riscoIA de recrutamento
Alto riscoIA médica
Alto riscoChatbots
Risco limitadoSistemas de recomendação
Risco limitadoFiltros de spam
Risco mínimoO custo da não conformidade
Práticas de IA proibidas
€35M
ou 7 % do volume de negócios anual global
o que for mais alto
Violações de alto risco
€15M
ou 3 % do volume de negócios anual global
o que for mais alto
Informações incorretas
€7.5M
ou 1,5 % do volume de negócios anual global
o que for mais alto
O que o AI Act exige — e o que o SiteGuardian monitoriza
O EU AI Act define obrigações ao longo de todo o ciclo de vida da IA. O SiteGuardian monitoriza os requisitos que correspondem a verificações técnicas e de conformidade.
Gestão de riscos
MonitorizadoO SiteGuardian acompanha a conformidade relacionada com a IA através de avaliação por questionário, associa os riscos dos sistemas de IA aos requisitos regulamentares e monitoriza a sua postura de risco global em todos os enquadramentos aplicáveis.
Transparência
Requisitos de documentação de sistemas de IA e notificação de utilizadores. Os fornecedores devem garantir que os sistemas de IA de alto risco são concebidos para serem suficientemente transparentes para que os responsáveis pela implantação possam interpretar os resultados. Esta é uma medida organizacional.
Supervisão humana
Os sistemas de IA de alto risco devem ser concebidos para permitir uma supervisão humana eficaz, incluindo abordagens Human-in-the-Loop, Human-on-the-Loop ou Human-in-Command. Esta é uma medida organizacional.
Precisão e Robustez
Os sistemas de IA de alto risco devem atingir níveis adequados de precisão, robustez e cibersegurança. Requisitos de testes técnicos e validação. Esta é uma medida organizacional.
Obrigações dos responsáveis pela implantação
MonitorizadoO SiteGuardian monitoriza o desempenho e a postura de conformidade dos sistemas de IA, gera evidências de auditoria para as obrigações dos responsáveis pela implantação e acompanha se a sua organização cumpre os seus deveres ao abrigo do AI Act.
Transparência para risco limitado
Obrigações de divulgação de chatbots e deepfakes. Os utilizadores devem ser informados quando interagem com sistemas de IA. O SiteGuardian cobre isto através de avaliação baseada em questionário do seu inventário de sistemas de IA.
Transparência algorítmica
MonitorizadoAs verificações DSA do SiteGuardian cobrem os requisitos de transparência dos sistemas de recomendação (referência cruzada ao Art. 27 DSA), garantindo que as plataformas divulguem os seus parâmetros de recomendação algorítmica.
Obrigações de reporte
MonitorizadoOs fornecedores e responsáveis pela implantação devem reportar incidentes graves de IA. O SiteGuardian apoia os fluxos de trabalho de deteção e reporte de incidentes, acompanha os prazos de notificação e gera relatórios pré-preenchidos para as autoridades.
Prazos-chave
O AI Act entra em vigor por fases. Anote estas datas.
1 de agosto de 2024
Entrada em vigor
O Regulamento 2024/1689 publicado no Jornal Oficial e entra em vigor.
2 de fevereiro de 2025
Práticas de IA proibidas
Aplicam-se as proibições de sistemas de IA de risco inaceitável: Social Scoring, vigilância biométrica em tempo real, IA manipuladora, reconhecimento de emoções em locais de trabalho/escolas.
2 de agosto de 2025
Regras GPAI
Aplicam-se as regras para modelos de IA de uso geral (incluindo modelos de fundação) e estruturas de governação.
2 de agosto de 2026
A maioria das obrigações aplica-se
Entram em vigor os requisitos para sistemas de IA de alto risco, obrigações de transparência, deveres dos responsáveis pela implantação, avaliações de conformidade e aplicação de sanções.
2 de agosto de 2027
IA de alto risco do Anexo I
Requisitos para sistemas de IA de alto risco integrados em produtos regulamentados (dispositivos médicos, máquinas, brinquedos, etc.) ao abrigo da legislação existente da UE sobre segurança de produtos.
Comece a se preparar hoje
Analise o seu website para ver a sua situação. O SiteGuardian associa os resultados aos artigos do AI Act — para que saiba exatamente o que deve abordar.
Grátis para sempre para 1 monitor. Sem necessidade de cartão de crédito.