Vai al contenuto principale
Regolamento UE 2024/1689

EU AI Act.
La vostra IA è conforme?

L'EU AI Act è la prima regolamentazione completa dell'IA al mondo. Classifica i sistemi di IA per livello di rischio — dalle pratiche vietate agli obblighi minimi. La maggior parte dei requisiti si applica dal 2 agosto 2026.

---
Giorni
--
Ore
--
Minuti
--
Secondi

fino al 2 agosto 2026

Sistemi di IA classificati per rischio

L'EU AI Act utilizza un approccio basato sul rischio. Tutti i fornitori e i deployer di sistemi di IA nel mercato dell'UE devono classificare i propri sistemi in uno dei quattro livelli di rischio.

Social Scoring

Vietato

Sorveglianza biometrica

Vietato

Credit Scoring

Alto rischio

IA per il reclutamento

Alto rischio

IA medica

Alto rischio

Chatbot

Rischio limitato

Sistemi di raccomandazione

Rischio limitato

Filtri anti-spam

Rischio minimo

Il costo della non conformità

Pratiche di IA vietate

€35M

o il 7 % del fatturato annuo globale

a seconda di quale importo sia più elevato

Violazioni ad alto rischio

€15M

o il 3 % del fatturato annuo globale

a seconda di quale importo sia più elevato

Informazioni inesatte

€7.5M

o l'1,5 % del fatturato annuo globale

a seconda di quale importo sia più elevato

Cosa richiede l'AI Act — e cosa monitora SiteGuardian

L'EU AI Act definisce obblighi lungo l'intero ciclo di vita dell'IA. SiteGuardian monitora i requisiti che corrispondono a verifiche tecniche e di conformità.

Art. 9

Gestione del rischio

Monitorati

SiteGuardian monitora la conformità relativa all'IA attraverso valutazioni tramite questionario, associa i rischi dei sistemi di IA ai requisiti normativi e monitora la vostra postura di rischio complessiva su tutti i framework applicabili.

Art. 13

Trasparenza

Requisiti di documentazione dei sistemi di IA e notifica agli utenti. I fornitori devono garantire che i sistemi di IA ad alto rischio siano progettati per essere sufficientemente trasparenti affinché i deployer possano interpretare i risultati. Questa è una misura organizzativa.

Art. 14

Supervisione umana

I sistemi di IA ad alto rischio devono essere progettati per consentire una supervisione umana efficace, inclusi gli approcci Human-in-the-Loop, Human-on-the-Loop o Human-in-Command. Questa è una misura organizzativa.

Art. 15

Accuratezza e Robustezza

I sistemi di IA ad alto rischio devono raggiungere livelli adeguati di accuratezza, robustezza e cybersicurezza. Requisiti di test tecnici e validazione. Questa è una misura organizzativa.

Art. 26

Obblighi dei deployer

Monitorati

SiteGuardian monitora le prestazioni e la postura di conformità dei sistemi di IA, genera evidenze di audit per gli obblighi dei deployer e verifica se la vostra organizzazione soddisfa i propri doveri ai sensi dell'AI Act.

Art. 50

Trasparenza per rischio limitato

Obblighi di divulgazione per chatbot e deepfake. Gli utenti devono essere informati quando interagiscono con sistemi di IA. SiteGuardian copre questo aspetto attraverso una valutazione basata su questionario dell'inventario dei sistemi di IA.

Art. 52

Trasparenza algoritmica

Monitorati

Le verifiche DSA di SiteGuardian coprono i requisiti di trasparenza dei sistemi di raccomandazione (riferimento incrociato all'Art. 27 DSA), garantendo che le piattaforme divulghino i parametri di raccomandazione algoritmica.

Art. 72

Obblighi di segnalazione

Monitorati

I fornitori e i deployer devono segnalare incidenti gravi legati all'IA. SiteGuardian supporta i flussi di lavoro di rilevamento e segnalazione degli incidenti, monitora le scadenze di notifica e genera report precompilati per le autorità.

Scadenze chiave

L'AI Act entra in vigore per fasi. Segnatevi queste date.

1 agosto 2024

Entrata in vigore

Il Regolamento 2024/1689 pubblicato nella Gazzetta Ufficiale ed entra in vigore.

2 febbraio 2025

Pratiche di IA vietate

Si applicano i divieti per i sistemi di IA a rischio inaccettabile: Social Scoring, sorveglianza biometrica in tempo reale, IA manipolativa, riconoscimento delle emozioni nei luoghi di lavoro/nelle scuole.

2 agosto 2025

Regole GPAI

Si applicano le regole per i modelli di IA di uso generale (inclusi i modelli di fondazione) e le strutture di governance.

2 agosto 2026

La maggior parte degli obblighi si applica

Entrano in vigore i requisiti per i sistemi di IA ad alto rischio, gli obblighi di trasparenza, i doveri dei deployer, le valutazioni di conformità e l'applicazione delle sanzioni.

2 agosto 2027

IA ad alto rischio dell'Allegato I

Requisiti per i sistemi di IA ad alto rischio integrati in prodotti regolamentati (dispositivi medici, macchinari, giocattoli, ecc.) ai sensi della legislazione vigente dell'UE sulla sicurezza dei prodotti.

Iniziate a prepararvi oggi

Analizzate il vostro sito web per valutare la situazione. SiteGuardian associa i risultati agli articoli dell'AI Act — così sapete esattamente cosa affrontare.

Gratuito per sempre per 1 monitor. Nessuna carta di credito richiesta.

Domande frequenti

Cos'è l'EU AI Act?
L'EU AI Act (Regolamento 2024/1689) è la prima regolamentazione completa al mondo per l'intelligenza artificiale. Utilizza un approccio basato sul rischio per classificare i sistemi di IA in quattro livelli: rischio inaccettabile (vietato), alto rischio (requisiti rigorosi), rischio limitato (obblighi di trasparenza) e rischio minimo (nessun obbligo specifico).
Quando entra in vigore l'EU AI Act?
L'AI Act ha scadenze scaglionate: febbraio 2025 per le pratiche di IA vietate, agosto 2025 per le regole GPAI, 2 agosto 2026 per la maggior parte degli obblighi inclusi i requisiti per i sistemi di IA ad alto rischio e i doveri dei deployer, e agosto 2027 per l'IA ad alto rischio integrata in prodotti regolamentati (Allegato I).
Chi deve conformarsi all'EU AI Act?
Tutti i fornitori (sviluppatori) e i deployer (utilizzatori) di sistemi di IA immessi sul mercato o utilizzati nell'UE devono conformarsi, indipendentemente da dove siano stabiliti. Questo include le aziende con sede nell'UE e le aziende extra-UE i cui sistemi di IA influiscono su persone nell'UE.
In che modo l'AI Act differisce dal GDPR?
Il GDPR regola il trattamento dei dati personali, mentre l'AI Act regola specificamente i sistemi di IA in base al rischio. Sono complementari — i sistemi di IA ad alto rischio che trattano dati personali devono conformarsi a entrambi. L'AI Act aggiunge requisiti di trasparenza, supervisione umana, accuratezza e robustezza che vanno oltre la protezione dei dati.
Come aiuta SiteGuardian con la conformità all'AI Act?
SiteGuardian associa i requisiti di conformità IA attraverso valutazioni del rischio basate su questionari, monitora la trasparenza algoritmica tramite riferimenti incrociati DSA (Art. 27 DSA per i sistemi di raccomandazione), monitora gli obblighi dei deployer e la postura di conformità, genera evidenze di audit e supporta i flussi di lavoro di rilevamento e segnalazione degli incidenti gravi legati all'IA.