EU AI Act.
La vostra IA è conforme?
L'EU AI Act è la prima regolamentazione completa dell'IA al mondo. Classifica i sistemi di IA per livello di rischio — dalle pratiche vietate agli obblighi minimi. La maggior parte dei requisiti si applica dal 2 agosto 2026.
fino al 2 agosto 2026
Sistemi di IA classificati per rischio
L'EU AI Act utilizza un approccio basato sul rischio. Tutti i fornitori e i deployer di sistemi di IA nel mercato dell'UE devono classificare i propri sistemi in uno dei quattro livelli di rischio.
Social Scoring
VietatoSorveglianza biometrica
VietatoCredit Scoring
Alto rischioIA per il reclutamento
Alto rischioIA medica
Alto rischioChatbot
Rischio limitatoSistemi di raccomandazione
Rischio limitatoFiltri anti-spam
Rischio minimoIl costo della non conformità
Pratiche di IA vietate
€35M
o il 7 % del fatturato annuo globale
a seconda di quale importo sia più elevato
Violazioni ad alto rischio
€15M
o il 3 % del fatturato annuo globale
a seconda di quale importo sia più elevato
Informazioni inesatte
€7.5M
o l'1,5 % del fatturato annuo globale
a seconda di quale importo sia più elevato
Cosa richiede l'AI Act — e cosa monitora SiteGuardian
L'EU AI Act definisce obblighi lungo l'intero ciclo di vita dell'IA. SiteGuardian monitora i requisiti che corrispondono a verifiche tecniche e di conformità.
Gestione del rischio
MonitoratiSiteGuardian monitora la conformità relativa all'IA attraverso valutazioni tramite questionario, associa i rischi dei sistemi di IA ai requisiti normativi e monitora la vostra postura di rischio complessiva su tutti i framework applicabili.
Trasparenza
Requisiti di documentazione dei sistemi di IA e notifica agli utenti. I fornitori devono garantire che i sistemi di IA ad alto rischio siano progettati per essere sufficientemente trasparenti affinché i deployer possano interpretare i risultati. Questa è una misura organizzativa.
Supervisione umana
I sistemi di IA ad alto rischio devono essere progettati per consentire una supervisione umana efficace, inclusi gli approcci Human-in-the-Loop, Human-on-the-Loop o Human-in-Command. Questa è una misura organizzativa.
Accuratezza e Robustezza
I sistemi di IA ad alto rischio devono raggiungere livelli adeguati di accuratezza, robustezza e cybersicurezza. Requisiti di test tecnici e validazione. Questa è una misura organizzativa.
Obblighi dei deployer
MonitoratiSiteGuardian monitora le prestazioni e la postura di conformità dei sistemi di IA, genera evidenze di audit per gli obblighi dei deployer e verifica se la vostra organizzazione soddisfa i propri doveri ai sensi dell'AI Act.
Trasparenza per rischio limitato
Obblighi di divulgazione per chatbot e deepfake. Gli utenti devono essere informati quando interagiscono con sistemi di IA. SiteGuardian copre questo aspetto attraverso una valutazione basata su questionario dell'inventario dei sistemi di IA.
Trasparenza algoritmica
MonitoratiLe verifiche DSA di SiteGuardian coprono i requisiti di trasparenza dei sistemi di raccomandazione (riferimento incrociato all'Art. 27 DSA), garantendo che le piattaforme divulghino i parametri di raccomandazione algoritmica.
Obblighi di segnalazione
MonitoratiI fornitori e i deployer devono segnalare incidenti gravi legati all'IA. SiteGuardian supporta i flussi di lavoro di rilevamento e segnalazione degli incidenti, monitora le scadenze di notifica e genera report precompilati per le autorità.
Scadenze chiave
L'AI Act entra in vigore per fasi. Segnatevi queste date.
1 agosto 2024
Entrata in vigore
Il Regolamento 2024/1689 pubblicato nella Gazzetta Ufficiale ed entra in vigore.
2 febbraio 2025
Pratiche di IA vietate
Si applicano i divieti per i sistemi di IA a rischio inaccettabile: Social Scoring, sorveglianza biometrica in tempo reale, IA manipolativa, riconoscimento delle emozioni nei luoghi di lavoro/nelle scuole.
2 agosto 2025
Regole GPAI
Si applicano le regole per i modelli di IA di uso generale (inclusi i modelli di fondazione) e le strutture di governance.
2 agosto 2026
La maggior parte degli obblighi si applica
Entrano in vigore i requisiti per i sistemi di IA ad alto rischio, gli obblighi di trasparenza, i doveri dei deployer, le valutazioni di conformità e l'applicazione delle sanzioni.
2 agosto 2027
IA ad alto rischio dell'Allegato I
Requisiti per i sistemi di IA ad alto rischio integrati in prodotti regolamentati (dispositivi medici, macchinari, giocattoli, ecc.) ai sensi della legislazione vigente dell'UE sulla sicurezza dei prodotti.
Iniziate a prepararvi oggi
Analizzate il vostro sito web per valutare la situazione. SiteGuardian associa i risultati agli articoli dell'AI Act — così sapete esattamente cosa affrontare.
Gratuito per sempre per 1 monitor. Nessuna carta di credito richiesta.