Aller au contenu principal
Règlement UE 2024/1689

EU AI Act.
Votre IA est-elle conforme ?

L'EU AI Act est la première réglementation complète au monde en matière d'IA. Il classe les systèmes d'IA par niveau de risque — des pratiques interdites aux obligations minimales. La plupart des exigences s'appliquent à partir du 2 août 2026.

---
Jours
--
Heures
--
Minutes
--
Secondes

jusqu'au 2 août 2026

Systèmes d'IA classés par risque

L'EU AI Act utilise une approche basée sur les risques. Tous les fournisseurs et déployeurs de systèmes d'IA sur le marché de l'UE doivent classer leurs systèmes dans l'un des quatre niveaux de risque.

Social Scoring

Interdit

Surveillance biométrique

Interdit

Notation de crédit

Risque élevé

IA de recrutement

Risque élevé

IA médicale

Risque élevé

Chatbots

Risque limité

Systèmes de recommandation

Risque limité

Filtres anti-spam

Risque minimal

Le coût de la non-conformité

Pratiques d'IA interdites

€35M

ou 7 % du chiffre d'affaires annuel mondial

le montant le plus élevé étant retenu

Violations à haut risque

€15M

ou 3 % du chiffre d'affaires annuel mondial

le montant le plus élevé étant retenu

Informations incorrectes

€7.5M

ou 1,5 % du chiffre d'affaires annuel mondial

le montant le plus élevé étant retenu

Ce que l'AI Act exige — et ce que SiteGuardian surveille

L'EU AI Act définit des obligations tout au long du cycle de vie de l'IA. SiteGuardian surveille les exigences qui correspondent aux vérifications techniques et de conformité.

Art. 9

Gestion des risques

Surveillé

SiteGuardian suit la conformité liée à l'IA par évaluation par questionnaire, associe les risques des systèmes d'IA aux exigences réglementaires et surveille votre posture de risque globale à travers tous les cadres applicables.

Art. 13

Transparence

Exigences de documentation des systèmes d'IA et de notification des utilisateurs. Les fournisseurs doivent s'assurer que les systèmes d'IA à haut risque sont conçus pour être suffisamment transparents afin que les déployeurs puissent interpréter les résultats. Il s'agit d'une mesure organisationnelle.

Art. 14

Supervision humaine

Les systèmes d'IA à haut risque doivent être conçus pour permettre une supervision humaine efficace, y compris les approches Human-in-the-Loop, Human-on-the-Loop ou Human-in-Command. Il s'agit d'une mesure organisationnelle.

Art. 15

Précision & Robustesse

Les systèmes d'IA à haut risque doivent atteindre des niveaux appropriés de précision, de robustesse et de cybersécurité. Exigences de tests techniques et de validation. Il s'agit d'une mesure organisationnelle.

Art. 26

Obligations des déployeurs

Surveillé

SiteGuardian surveille la performance et la posture de conformité des systèmes d'IA, génère des preuves d'audit pour les obligations des déployeurs et vérifie si votre organisation remplit ses obligations au titre de l'AI Act.

Art. 50

Transparence pour risque limité

Obligations de divulgation pour les chatbots et deepfakes. Les utilisateurs doivent être informés lorsqu'ils interagissent avec des systèmes d'IA. SiteGuardian couvre cela par une évaluation par questionnaire de votre inventaire de systèmes d'IA.

Art. 52

Transparence algorithmique

Surveillé

Les vérifications DSA de SiteGuardian couvrent les exigences de transparence des systèmes de recommandation (référence croisée à l'Art. 27 DSA), garantissant que les plateformes divulguent leurs paramètres de recommandation algorithmique.

Art. 72

Obligations de signalement

Surveillé

Les fournisseurs et déployeurs doivent signaler les incidents graves liés à l'IA. SiteGuardian soutient les workflows de détection et de signalement d'incidents, suit les délais de notification et génère des rapports pré-remplis pour les autorités.

Échéances clés

L'AI Act entre en vigueur par phases. Notez ces dates.

1er août 2024

Entrée en vigueur

Le Règlement 2024/1689 publié au Journal officiel et entre en vigueur.

2 février 2025

Pratiques d'IA interdites

Les interdictions des systèmes d'IA à risque inacceptable s'appliquent : Social Scoring, surveillance biométrique en temps réel, IA manipulatrice, reconnaissance des émotions sur les lieux de travail/dans les écoles.

2 août 2025

Règles GPAI

Les règles pour les modèles d'IA à usage général (y compris les modèles de fondation) et les structures de gouvernance s'appliquent.

2 août 2026

La plupart des obligations s'appliquent

Les exigences relatives aux systèmes d'IA à haut risque, les obligations de transparence, les devoirs des déployeurs, les évaluations de conformité et l'application des sanctions entrent en vigueur.

2 août 2027

IA à haut risque de l'Annexe I

Exigences pour les systèmes d'IA à haut risque intégrés dans des produits réglementés (dispositifs médicaux, machines, jouets, etc.) au titre de la législation existante de l'UE sur la sécurité des produits.

Commencez à vous préparer dès aujourd'hui

Analysez votre site web pour voir où vous en êtes. SiteGuardian associe les résultats aux articles de l'AI Act — pour que vous sachiez exactement quoi corriger.

Gratuit pour toujours pour 1 moniteur. Aucune carte bancaire requise.

Questions fréquemment posées

Qu'est-ce que l'EU AI Act ?
L'EU AI Act (Règlement 2024/1689) est la première réglementation complète au monde pour l'intelligence artificielle. Il utilise une approche basée sur les risques pour classer les systèmes d'IA en quatre niveaux : risque inacceptable (interdit), risque élevé (exigences strictes), risque limité (obligations de transparence) et risque minimal (aucune obligation spécifique).
Quand l'EU AI Act entre-t-il en vigueur ?
L'AI Act a des échéances échelonnées : février 2025 pour les pratiques d'IA interdites, août 2025 pour les règles GPAI, 2 août 2026 pour la plupart des obligations y compris les exigences relatives aux systèmes d'IA à haut risque et les devoirs des déployeurs, et août 2027 pour l'IA à haut risque intégrée dans les produits réglementés (Annexe I).
Qui doit se conformer à l'EU AI Act ?
Tous les fournisseurs (développeurs) et déployeurs (utilisateurs) de systèmes d'IA mis sur le marché ou utilisés dans l'UE doivent se conformer, quel que soit leur lieu d'établissement. Cela inclut les entreprises basées dans l'UE et les entreprises hors UE dont les systèmes d'IA affectent des personnes dans l'UE.
En quoi l'AI Act diffère-t-il du RGPD ?
Le RGPD réglemente le traitement des données personnelles, tandis que l'AI Act réglemente spécifiquement les systèmes d'IA en fonction du risque. Ils sont complémentaires — les systèmes d'IA à haut risque qui traitent des données personnelles doivent se conformer aux deux. L'AI Act ajoute des exigences de transparence, de supervision humaine, de précision et de robustesse qui vont au-delà de la protection des données.
Comment SiteGuardian aide-t-il à la conformité AI Act ?
SiteGuardian associe les exigences de conformité IA par évaluation des risques basée sur des questionnaires, surveille la transparence algorithmique via les références croisées DSA (Art. 27 DSA pour les systèmes de recommandation), suit les obligations des déployeurs et la posture de conformité, génère des preuves d'audit et soutient les workflows de détection et de signalement d'incidents pour les incidents graves liés à l'IA.