Zum Hauptinhalt springen
EU-Verordnung 2024/1689

EU AI Act.
Ist Ihre KI konform?

Der EU AI Act ist die weltweit erste umfassende KI-Regulierung. Er klassifiziert KI-Systeme nach Risikoniveau — von verbotenen Praktiken bis hin zu minimalen Pflichten. Die meisten Anforderungen gelten ab dem 2. August 2026.

---
Tage
--
Stunden
--
Minuten
--
Sekunden

bis zum 2. August 2026

KI-Systeme nach Risiko klassifiziert

Der EU AI Act verfolgt einen risikobasierten Ansatz. Alle Anbieter und Betreiber von KI-Systemen auf dem EU-Markt müssen ihre Systeme in eine von vier Risikostufen einordnen.

Social Scoring

Verboten

Biometrische Überwachung

Verboten

Kreditbewertung

Hohes Risiko

KI im Recruiting

Hohes Risiko

Medizinische KI

Hohes Risiko

Chatbots

Begrenztes Risiko

Empfehlungssysteme

Begrenztes Risiko

Spamfilter

Minimales Risiko

Die Kosten der Nichteinhaltung

Verbotene KI-Praktiken

€35M

oder 7 % des weltweiten Jahresumsatzes

je nachdem, welcher Betrag höher ist

Hochrisiko-Verstöße

€15M

oder 3 % des weltweiten Jahresumsatzes

je nachdem, welcher Betrag höher ist

Falsche Angaben

€7.5M

oder 1,5 % des weltweiten Jahresumsatzes

je nachdem, welcher Betrag höher ist

Was der AI Act fordert — und was SiteGuardian überwacht

Der EU AI Act definiert Pflichten über den gesamten KI-Lebenszyklus. SiteGuardian überwacht die Anforderungen, die sich auf technische und Compliance-Prüfungen abbilden lassen.

Art. 9

Risikomanagement

Überwacht

SiteGuardian verfolgt die KI-bezogene Compliance durch Fragebogenbewertung, ordnet KI-Systemrisiken regulatorischen Anforderungen zu und überwacht Ihre gesamte Risikolage über alle anwendbaren Rahmenwerke.

Art. 13

Transparenz

Dokumentations- und Benachrichtigungspflichten für KI-Systeme. Anbieter müssen sicherstellen, dass Hochrisiko-KI-Systeme so konzipiert sind, dass Betreiber die Ausgaben interpretieren können. Dies ist eine organisatorische Maßnahme.

Art. 14

Menschliche Aufsicht

Hochrisiko-KI-Systeme müssen so konzipiert sein, dass eine wirksame menschliche Aufsicht möglich ist — einschließlich Human-in-the-Loop-, Human-on-the-Loop- oder Human-in-Command-Ansätzen. Dies ist eine organisatorische Maßnahme.

Art. 15

Genauigkeit & Robustheit

Hochrisiko-KI-Systeme müssen ein angemessenes Maß an Genauigkeit, Robustheit und Cybersicherheit erreichen. Technische Test- und Validierungsanforderungen. Dies ist eine organisatorische Maßnahme.

Art. 26

Betreiberpflichten

Überwacht

SiteGuardian überwacht die Leistung und Compliance-Lage von KI-Systemen, erstellt Auditnachweise für Betreiberpflichten und verfolgt, ob Ihre Organisation ihre Pflichten unter dem AI Act erfüllt.

Art. 50

Transparenz für begrenztes Risiko

Offenlegungspflichten für Chatbots und Deepfakes. Nutzer müssen informiert werden, wenn sie mit KI-Systemen interagieren. SiteGuardian deckt dies durch eine fragebogenbasierte Bewertung Ihres KI-System-Inventars ab.

Art. 52

Algorithmische Transparenz

Überwacht

Die DSA-Prüfungen von SiteGuardian decken die Transparenzanforderungen für Empfehlungssysteme ab (Querverweis zu Art. 27 DSA) und stellen sicher, dass Plattformen ihre algorithmischen Empfehlungsparameter offenlegen.

Art. 72

Meldepflichten

Überwacht

Anbieter und Betreiber müssen schwerwiegende KI-Vorfälle melden. SiteGuardian unterstützt Vorfallserkennung und Meldeworkflows, verfolgt Meldefristen und erstellt vorausgefüllte Berichte für Behörden.

Wichtige Fristen

Der AI Act tritt in Phasen in Kraft. Merken Sie sich diese Termine.

1. August 2024

Inkrafttreten

Verordnung 2024/1689 im Amtsblatt veröffentlicht und in Kraft getreten.

2. Februar 2025

Verbotene KI-Praktiken

Verbote für KI-Systeme mit inakzeptablem Risiko gelten: Social Scoring, biometrische Echtzeit-Überwachung, manipulative KI, Emotionserkennung am Arbeitsplatz/in Schulen.

2. August 2025

GPAI-Regeln

Regeln für KI-Modelle mit allgemeinem Verwendungszweck (einschließlich Foundation Models) und Governance-Strukturen gelten.

2. August 2026

Die meisten Pflichten gelten

Anforderungen an Hochrisiko-KI-Systeme, Transparenzpflichten, Betreiberpflichten, Konformitätsbewertungen und Sanktionsdurchsetzung treten in Kraft.

2. August 2027

Hochrisiko-KI nach Anhang I

Anforderungen an Hochrisiko-KI-Systeme, die in regulierte Produkte eingebettet sind (Medizinprodukte, Maschinen, Spielzeug etc.) gemäß bestehender EU-Produktsicherheitsgesetzgebung.

Beginnen Sie noch heute mit der Vorbereitung

Scannen Sie Ihre Website, um zu sehen, wo Sie stehen. SiteGuardian ordnet Befunde AI-Act-Artikeln zu — damit Sie genau wissen, was zu beheben ist.

Für immer kostenlos für 1 Monitor. Keine Kreditkarte erforderlich.

Häufig gestellte Fragen

Was ist der EU AI Act?
Der EU AI Act (Verordnung 2024/1689) ist die weltweit erste umfassende Regulierung für künstliche Intelligenz. Er verfolgt einen risikobasierten Ansatz zur Klassifizierung von KI-Systemen in vier Stufen: inakzeptables Risiko (verboten), hohes Risiko (strenge Anforderungen), begrenztes Risiko (Transparenzpflichten) und minimales Risiko (keine besonderen Pflichten).
Wann tritt der EU AI Act in Kraft?
Der AI Act hat gestaffelte Fristen: Februar 2025 für verbotene KI-Praktiken, August 2025 für GPAI-Regeln, 2. August 2026 für die meisten Pflichten einschließlich Hochrisiko-KI-Anforderungen und Betreiberpflichten, und August 2027 für Hochrisiko-KI in regulierten Produkten (Anhang I).
Wer muss den EU AI Act einhalten?
Alle Anbieter (Entwickler) und Betreiber (Nutzer) von KI-Systemen, die auf dem EU-Markt bereitgestellt oder verwendet werden, müssen die Vorschriften einhalten — unabhängig von ihrem Sitz. Dies umfasst EU-Unternehmen und Nicht-EU-Unternehmen, deren KI-Systeme Menschen in der EU betreffen.
Wie unterscheidet sich der AI Act von der DSGVO?
Die DSGVO regelt die Verarbeitung personenbezogener Daten, während der AI Act KI-Systeme risikobasiert reguliert. Sie ergänzen sich — Hochrisiko-KI-Systeme, die personenbezogene Daten verarbeiten, müssen beide einhalten. Der AI Act stellt Anforderungen an Transparenz, menschliche Aufsicht, Genauigkeit und Robustheit, die über den Datenschutz hinausgehen.
Wie hilft SiteGuardian bei der AI-Act-Compliance?
SiteGuardian ordnet KI-Compliance-Anforderungen durch fragebogenbasierte Risikobewertung zu, überwacht algorithmische Transparenz über DSA-Querverweise (Art. 27 DSA für Empfehlungssysteme), verfolgt Betreiberpflichten und Compliance-Lage, erstellt Auditnachweise und unterstützt Vorfallserkennung und Meldeworkflows für schwerwiegende KI-Vorfälle.