Naar hoofdinhoud
EU-Verordening 2024/1689

EU AI Act.
Is uw AI conform?

's Werelds eerste uitgebreide AI-regulering. De EU AI Act classificeert AI-systemen op risiconiveau — van verboden praktijken tot minimale verplichtingen. De meeste vereisten gelden vanaf 2 augustus 2026.

---
Dagen
--
Uren
--
Minuten
--
Seconden

tot 2 augustus 2026

AI-systemen geclassificeerd op risico

De EU AI Act hanteert een risicogebaseerde aanpak. Alle aanbieders en gebruiksverantwoordelijken van AI-systemen op de EU-markt moeten hun systemen in een van de vier risiconiveaus indelen.

Social Scoring

Verboden

Biometrisch toezicht

Verboden

Kredietscore

Hoog risico

AI voor werving

Hoog risico

Medische AI

Hoog risico

Chatbots

Beperkt risico

Aanbevelingssystemen

Beperkt risico

Spamfilters

Minimaal risico

De kosten van non-compliance

Verboden AI-praktijken

€35M

of 7 % van de wereldwijde jaaromzet

afhankelijk van welk bedrag hoger is

Overtredingen met hoog risico

€15M

of 3 % van de wereldwijde jaaromzet

afhankelijk van welk bedrag hoger is

Onjuiste informatie

€7.5M

of 1,5 % van de wereldwijde jaaromzet

afhankelijk van welk bedrag hoger is

Wat de AI Act vereist — en wat SiteGuardian monitort

De EU AI Act definieert verplichtingen over de gehele AI-levenscyclus. SiteGuardian monitort de vereisten die overeenkomen met technische en compliance-controles.

Art. 9

Risicobeheer

Überwacht

SiteGuardian volgt AI-gerelateerde compliance via vragenlijstbeoordeling, koppelt AI-systeemrisico's aan wettelijke vereisten en monitort uw algehele risicopositie over alle toepasselijke kaders.

Art. 13

Transparantie

Documentatie- en gebruikersnotificatievereisten voor AI-systemen. Aanbieders moeten ervoor zorgen dat AI-systemen met een hoog risico zo zijn ontworpen dat gebruiksverantwoordelijken de output kunnen interpreteren. Dit is een organisatorische maatregel.

Art. 14

Menselijk toezicht

AI-systemen met een hoog risico moeten zo zijn ontworpen dat effectief menselijk toezicht mogelijk is, inclusief Human-in-the-Loop-, Human-on-the-Loop- of Human-in-Command-benaderingen. Dit is een organisatorische maatregel.

Art. 15

Nauwkeurigheid & Robuustheid

AI-systemen met een hoog risico moeten passende niveaus van nauwkeurigheid, robuustheid en cybersecurity bereiken. Technische test- en validatievereisten. Dit is een organisatorische maatregel.

Art. 26

Verplichtingen van gebruiksverantwoordelijken

Überwacht

SiteGuardian monitort de prestaties en compliance-positie van AI-systemen, genereert auditbewijs voor verplichtingen van gebruiksverantwoordelijken en volgt of uw organisatie aan haar plichten onder de AI Act voldoet.

Art. 50

Transparantie voor beperkt risico

Openbaarmakingsverplichtingen voor chatbots en deepfakes. Gebruikers moeten worden geïnformeerd wanneer zij met AI-systemen communiceren. SiteGuardian dekt dit af via een vragenlijstgebaseerde beoordeling van uw AI-systeeminventaris.

Art. 52

Algoritmische transparantie

Überwacht

De DSA-controles van SiteGuardian dekken de transparantievereisten voor aanbevelingssystemen (kruisverwijzing naar Art. 27 DSA), waardoor platforms hun algoritmische aanbevelingsparameters openbaar maken.

Art. 72

Meldingsverplichtingen

Überwacht

Aanbieders en gebruiksverantwoordelijken moeten ernstige AI-incidenten melden. SiteGuardian ondersteunt workflows voor incidentdetectie en -rapportage, volgt meldingsdeadlines en genereert vooraf ingevulde rapporten voor autoriteiten.

Belangrijke deadlines

De AI Act treedt in fasen in werking. Noteer deze data.

1 augustus 2024

Inwerkingtreding

Verordening 2024/1689 gepubliceerd in het Publicatieblad en treedt in werking.

2 februari 2025

Verboden AI-praktijken

Verboden op AI-systemen met onaanvaardbaar risico gelden: Social Scoring, real-time biometrisch toezicht, manipulatieve AI, emotieherkenning op werkplekken/scholen.

2 augustus 2025

GPAI-regels

Regels voor AI-modellen voor algemene doeleinden (inclusief basismodellen) en governancestructuren gelden.

2 augustus 2026

De meeste verplichtingen gelden

Vereisten voor AI-systemen met een hoog risico, transparantieverplichtingen, plichten van gebruiksverantwoordelijken, conformiteitsbeoordelingen en handhaving van sancties treden in werking.

2 augustus 2027

Bijlage I hoog-risico AI

Vereisten voor AI-systemen met een hoog risico die zijn ingebed in gereguleerde producten (medische hulpmiddelen, machines, speelgoed, enz.) onder bestaande EU-productveiligheidswetgeving.

Begin vandaag met voorbereiden

Scan uw website om te zien waar u staat. SiteGuardian koppelt bevindingen aan AI Act-artikelen — zodat u precies weet wat u moet aanpakken.

Voor altijd gratis voor 1 monitor. Geen creditcard vereist.

Veelgestelde vragen

Wat is de EU AI Act?
De EU AI Act (Verordening 2024/1689) is de eerste uitgebreide regulering ter wereld voor kunstmatige intelligentie. Het hanteert een risicogebaseerde aanpak om AI-systemen in vier niveaus te classificeren: onaanvaardbaar risico (verboden), hoog risico (strenge vereisten), beperkt risico (transparantieverplichtingen) en minimaal risico (geen specifieke verplichtingen).
Wanneer treedt de EU AI Act in werking?
De AI Act heeft gefaseerde deadlines: februari 2025 voor verboden AI-praktijken, augustus 2025 voor GPAI-regels, 2 augustus 2026 voor de meeste verplichtingen inclusief vereisten voor AI-systemen met een hoog risico en plichten van gebruiksverantwoordelijken, en augustus 2027 voor hoog-risico AI ingebed in gereguleerde producten (Bijlage I).
Wie moet de EU AI Act naleven?
Alle aanbieders (ontwikkelaars) en gebruiksverantwoordelijken (gebruikers) van AI-systemen die op de EU-markt worden geplaatst of gebruikt, moeten voldoen, ongeacht waar zij gevestigd zijn. Dit omvat in de EU gevestigde bedrijven en niet-EU-bedrijven waarvan de AI-systemen mensen in de EU beïnvloeden.
Hoe verschilt de AI Act van de AVG?
De AVG reguleert de verwerking van persoonsgegevens, terwijl de AI Act specifiek AI-systemen reguleert op basis van risico. Ze zijn complementair — AI-systemen met een hoog risico die persoonsgegevens verwerken, moeten aan beide voldoen. De AI Act voegt vereisten toe voor transparantie, menselijk toezicht, nauwkeurigheid en robuustheid die verder gaan dan gegevensbescherming.
Hoe helpt SiteGuardian bij AI Act-compliance?
SiteGuardian koppelt AI-compliancevereisten via risicobeoordelingen op basis van vragenlijsten, monitort algoritmische transparantie via DSA-kruisverwijzingen (Art. 27 DSA voor aanbevelingssystemen), volgt verplichtingen van gebruiksverantwoordelijken en compliance-positie, genereert auditbewijs en ondersteunt workflows voor incidentdetectie en -rapportage voor ernstige AI-incidenten.