EU AI Act.
¿Su IA cumple la normativa?
El EU AI Act es la primera regulación integral de IA del mundo. Clasifica los sistemas de IA por nivel de riesgo — desde prácticas prohibidas hasta obligaciones mínimas. La mayoría de los requisitos se aplican a partir del 2 de agosto de 2026.
hasta el 2 de agosto de 2026
Sistemas de IA clasificados por riesgo
El EU AI Act utiliza un enfoque basado en riesgos. Todos los proveedores y responsables del despliegue de sistemas de IA en el mercado de la UE deben clasificar sus sistemas en uno de los cuatro niveles de riesgo.
Social Scoring
ProhibidoVigilancia biométrica
ProhibidoCalificación crediticia
Alto riesgoIA de selección de personal
Alto riesgoIA médica
Alto riesgoChatbots
Riesgo limitadoSistemas de recomendación
Riesgo limitadoFiltros de spam
Riesgo mínimoEl costo del incumplimiento
Prácticas de IA prohibidas
€35M
o el 7 % del volumen de negocios anual mundial
el que sea más alto
Infracciones de alto riesgo
€15M
o el 3 % del volumen de negocios anual mundial
el que sea más alto
Información incorrecta
€7.5M
o el 1,5 % del volumen de negocios anual mundial
el que sea más alto
Lo que exige el AI Act — y lo que SiteGuardian monitoriza
El EU AI Act define obligaciones a lo largo del ciclo de vida de la IA. SiteGuardian monitoriza los requisitos que se corresponden con verificaciones técnicas y de cumplimiento.
Gestión de riesgos
MonitorizadosSiteGuardian realiza el seguimiento del cumplimiento relacionado con la IA mediante evaluación por cuestionario, asocia los riesgos de los sistemas de IA a los requisitos regulatorios y monitoriza su postura de riesgo global en todos los marcos aplicables.
Transparencia
Requisitos de documentación de sistemas de IA y notificación a usuarios. Los proveedores deben garantizar que los sistemas de IA de alto riesgo estén diseñados para ser suficientemente transparentes para que los responsables del despliegue interpreten los resultados. Esta es una medida organizativa.
Supervisión humana
Los sistemas de IA de alto riesgo deben estar diseñados para permitir una supervisión humana eficaz, incluyendo enfoques Human-in-the-Loop, Human-on-the-Loop o Human-in-Command. Esta es una medida organizativa.
Precisión y Robustez
Los sistemas de IA de alto riesgo deben alcanzar niveles adecuados de precisión, robustez y ciberseguridad. Requisitos de pruebas técnicas y validación. Esta es una medida organizativa.
Obligaciones de los responsables del despliegue
MonitorizadosSiteGuardian monitoriza el rendimiento y la postura de cumplimiento de los sistemas de IA, genera evidencias de auditoría para las obligaciones de los responsables del despliegue y realiza el seguimiento de si su organización cumple con sus deberes según el AI Act.
Transparencia para riesgo limitado
Obligaciones de divulgación de chatbots y deepfakes. Los usuarios deben ser informados cuando interactúan con sistemas de IA. SiteGuardian cubre esto mediante una evaluación basada en cuestionario de su inventario de sistemas de IA.
Transparencia algorítmica
MonitorizadosLas verificaciones DSA de SiteGuardian cubren los requisitos de transparencia de los sistemas de recomendación (referencia cruzada al Art. 27 DSA), garantizando que las plataformas divulguen sus parámetros de recomendación algorítmica.
Obligaciones de notificación
MonitorizadosLos proveedores y responsables del despliegue deben notificar incidentes graves de IA. SiteGuardian apoya los flujos de trabajo de detección y notificación de incidentes, realiza el seguimiento de los plazos de notificación y genera informes prerrellenados para las autoridades.
Plazos clave
El AI Act entra en vigor por fases. Anote estas fechas.
1 de agosto de 2024
Entrada en vigor
El Reglamento 2024/1689 publicado en el Diario Oficial y entra en vigor.
2 de febrero de 2025
Prácticas de IA prohibidas
Se aplican las prohibiciones de sistemas de IA de riesgo inaceptable: Social Scoring, vigilancia biométrica en tiempo real, IA manipuladora, reconocimiento de emociones en lugares de trabajo/escuelas.
2 de agosto de 2025
Reglas GPAI
Se aplican las reglas para modelos de IA de propósito general (incluidos los modelos fundacionales) y las estructuras de gobernanza.
2 de agosto de 2026
La mayoría de las obligaciones se aplican
Entran en vigor los requisitos de sistemas de IA de alto riesgo, obligaciones de transparencia, deberes de los responsables del despliegue, evaluaciones de conformidad y aplicación de sanciones.
2 de agosto de 2027
IA de alto riesgo del Anexo I
Requisitos para sistemas de IA de alto riesgo integrados en productos regulados (dispositivos médicos, maquinaria, juguetes, etc.) según la legislación vigente de la UE sobre seguridad de productos.
Comience a prepararse hoy
Analice su sitio web para ver su situación. SiteGuardian asocia los hallazgos a artículos del AI Act — para que sepa exactamente qué abordar.
Gratis para siempre para 1 monitor. No se requiere tarjeta de crédito.