Ir al contenido principal
Reglamento UE 2024/1689

EU AI Act.
¿Su IA cumple la normativa?

El EU AI Act es la primera regulación integral de IA del mundo. Clasifica los sistemas de IA por nivel de riesgo — desde prácticas prohibidas hasta obligaciones mínimas. La mayoría de los requisitos se aplican a partir del 2 de agosto de 2026.

---
Días
--
Horas
--
Minutos
--
Segundos

hasta el 2 de agosto de 2026

Sistemas de IA clasificados por riesgo

El EU AI Act utiliza un enfoque basado en riesgos. Todos los proveedores y responsables del despliegue de sistemas de IA en el mercado de la UE deben clasificar sus sistemas en uno de los cuatro niveles de riesgo.

Social Scoring

Prohibido

Vigilancia biométrica

Prohibido

Calificación crediticia

Alto riesgo

IA de selección de personal

Alto riesgo

IA médica

Alto riesgo

Chatbots

Riesgo limitado

Sistemas de recomendación

Riesgo limitado

Filtros de spam

Riesgo mínimo

El costo del incumplimiento

Prácticas de IA prohibidas

€35M

o el 7 % del volumen de negocios anual mundial

el que sea más alto

Infracciones de alto riesgo

€15M

o el 3 % del volumen de negocios anual mundial

el que sea más alto

Información incorrecta

€7.5M

o el 1,5 % del volumen de negocios anual mundial

el que sea más alto

Lo que exige el AI Act — y lo que SiteGuardian monitoriza

El EU AI Act define obligaciones a lo largo del ciclo de vida de la IA. SiteGuardian monitoriza los requisitos que se corresponden con verificaciones técnicas y de cumplimiento.

Art. 9

Gestión de riesgos

Monitorizados

SiteGuardian realiza el seguimiento del cumplimiento relacionado con la IA mediante evaluación por cuestionario, asocia los riesgos de los sistemas de IA a los requisitos regulatorios y monitoriza su postura de riesgo global en todos los marcos aplicables.

Art. 13

Transparencia

Requisitos de documentación de sistemas de IA y notificación a usuarios. Los proveedores deben garantizar que los sistemas de IA de alto riesgo estén diseñados para ser suficientemente transparentes para que los responsables del despliegue interpreten los resultados. Esta es una medida organizativa.

Art. 14

Supervisión humana

Los sistemas de IA de alto riesgo deben estar diseñados para permitir una supervisión humana eficaz, incluyendo enfoques Human-in-the-Loop, Human-on-the-Loop o Human-in-Command. Esta es una medida organizativa.

Art. 15

Precisión y Robustez

Los sistemas de IA de alto riesgo deben alcanzar niveles adecuados de precisión, robustez y ciberseguridad. Requisitos de pruebas técnicas y validación. Esta es una medida organizativa.

Art. 26

Obligaciones de los responsables del despliegue

Monitorizados

SiteGuardian monitoriza el rendimiento y la postura de cumplimiento de los sistemas de IA, genera evidencias de auditoría para las obligaciones de los responsables del despliegue y realiza el seguimiento de si su organización cumple con sus deberes según el AI Act.

Art. 50

Transparencia para riesgo limitado

Obligaciones de divulgación de chatbots y deepfakes. Los usuarios deben ser informados cuando interactúan con sistemas de IA. SiteGuardian cubre esto mediante una evaluación basada en cuestionario de su inventario de sistemas de IA.

Art. 52

Transparencia algorítmica

Monitorizados

Las verificaciones DSA de SiteGuardian cubren los requisitos de transparencia de los sistemas de recomendación (referencia cruzada al Art. 27 DSA), garantizando que las plataformas divulguen sus parámetros de recomendación algorítmica.

Art. 72

Obligaciones de notificación

Monitorizados

Los proveedores y responsables del despliegue deben notificar incidentes graves de IA. SiteGuardian apoya los flujos de trabajo de detección y notificación de incidentes, realiza el seguimiento de los plazos de notificación y genera informes prerrellenados para las autoridades.

Plazos clave

El AI Act entra en vigor por fases. Anote estas fechas.

1 de agosto de 2024

Entrada en vigor

El Reglamento 2024/1689 publicado en el Diario Oficial y entra en vigor.

2 de febrero de 2025

Prácticas de IA prohibidas

Se aplican las prohibiciones de sistemas de IA de riesgo inaceptable: Social Scoring, vigilancia biométrica en tiempo real, IA manipuladora, reconocimiento de emociones en lugares de trabajo/escuelas.

2 de agosto de 2025

Reglas GPAI

Se aplican las reglas para modelos de IA de propósito general (incluidos los modelos fundacionales) y las estructuras de gobernanza.

2 de agosto de 2026

La mayoría de las obligaciones se aplican

Entran en vigor los requisitos de sistemas de IA de alto riesgo, obligaciones de transparencia, deberes de los responsables del despliegue, evaluaciones de conformidad y aplicación de sanciones.

2 de agosto de 2027

IA de alto riesgo del Anexo I

Requisitos para sistemas de IA de alto riesgo integrados en productos regulados (dispositivos médicos, maquinaria, juguetes, etc.) según la legislación vigente de la UE sobre seguridad de productos.

Comience a prepararse hoy

Analice su sitio web para ver su situación. SiteGuardian asocia los hallazgos a artículos del AI Act — para que sepa exactamente qué abordar.

Gratis para siempre para 1 monitor. No se requiere tarjeta de crédito.

Preguntas frecuentes

¿Qué es el EU AI Act?
El EU AI Act (Reglamento 2024/1689) es la primera regulación integral del mundo para la inteligencia artificial. Utiliza un enfoque basado en riesgos para clasificar los sistemas de IA en cuatro niveles: riesgo inaceptable (prohibido), alto riesgo (requisitos estrictos), riesgo limitado (obligaciones de transparencia) y riesgo mínimo (sin obligaciones específicas).
¿Cuándo entra en vigor el EU AI Act?
El AI Act tiene plazos escalonados: febrero de 2025 para las prácticas de IA prohibidas, agosto de 2025 para las reglas GPAI, 2 de agosto de 2026 para la mayoría de las obligaciones incluyendo requisitos de sistemas de IA de alto riesgo y deberes de los responsables del despliegue, y agosto de 2027 para la IA de alto riesgo integrada en productos regulados (Anexo I).
¿Quién debe cumplir con el EU AI Act?
Todos los proveedores (desarrolladores) y responsables del despliegue (usuarios) de sistemas de IA puestos en el mercado o utilizados en la UE deben cumplir, independientemente de dónde estén establecidos. Esto incluye a empresas con sede en la UE y a empresas de fuera de la UE cuyos sistemas de IA afecten a personas en la UE.
¿En qué se diferencia el AI Act del RGPD?
El RGPD regula el tratamiento de datos personales, mientras que el AI Act regula específicamente los sistemas de IA en función del riesgo. Son complementarios — los sistemas de IA de alto riesgo que tratan datos personales deben cumplir con ambos. El AI Act añade requisitos de transparencia, supervisión humana, precisión y robustez que van más allá de la protección de datos.
¿Cómo ayuda SiteGuardian con el cumplimiento del AI Act?
SiteGuardian asocia los requisitos de cumplimiento de IA mediante evaluación de riesgos basada en cuestionarios, monitoriza la transparencia algorítmica a través de referencias cruzadas DSA (Art. 27 DSA para sistemas de recomendación), realiza el seguimiento de las obligaciones de los responsables del despliegue y la postura de cumplimiento, genera evidencias de auditoría y apoya los flujos de trabajo de detección y notificación de incidentes graves de IA.