Przejdź do głównej treści
Rozporządzenie UE 2024/1689

EU AI Act.
Czy Twoja AI jest zgodna z przepisami?

EU AI Act to pierwsza na świecie kompleksowa regulacja dotycząca AI. Klasyfikuje systemy AI według poziomu ryzyka — od zakazanych praktyk po minimalne obowiązki. Większość wymogów obowiązuje od 2 sierpnia 2026 r.

---
Dni
--
Godziny
--
Minuty
--
Sekundy

do 2 sierpnia 2026 r.

Systemy AI sklasyfikowane według ryzyka

EU AI Act stosuje podejście oparte na ryzyku. Wszyscy dostawcy i podmioty wdrażające systemy AI na rynku UE muszą sklasyfikować swoje systemy w jednym z czterech poziomów ryzyka.

Social Scoring

Zakazane

Nadzór biometryczny

Zakazane

Scoring kredytowy

Wysokie ryzyko

AI w rekrutacji

Wysokie ryzyko

AI medyczna

Wysokie ryzyko

Chatboty

Ograniczone ryzyko

Systemy rekomendacji

Ograniczone ryzyko

Filtry antyspamowe

Minimalne ryzyko

Koszt niezgodności

Zakazane praktyki AI

€35M

lub 7 % globalnego rocznego obrotu

w zależności od tego, co jest wyższe

Naruszenia wysokiego ryzyka

€15M

lub 3 % globalnego rocznego obrotu

w zależności od tego, co jest wyższe

Nieprawidłowe informacje

€7.5M

lub 1,5 % globalnego rocznego obrotu

w zależności od tego, co jest wyższe

Czego wymaga AI Act — i co monitoruje SiteGuardian

EU AI Act definiuje obowiązki w całym cyklu życia AI. SiteGuardian monitoruje wymagania, które odpowiadają kontrolom technicznym i kontrolom zgodności.

Art. 9

Zarządzanie ryzykiem

Überwacht

SiteGuardian śledzi zgodność z przepisami dotyczącymi AI poprzez ocenę kwestionariuszową, przyporządkowuje ryzyka systemów AI do wymogów regulacyjnych i monitoruje ogólną postawę ryzyka we wszystkich obowiązujących ramach prawnych.

Art. 13

Przejrzystość

Wymagania dotyczące dokumentacji systemów AI i powiadamiania użytkowników. Dostawcy muszą zapewnić, że systemy AI wysokiego ryzyka są zaprojektowane tak, aby podmioty wdrażające mogły interpretować wyniki. Jest to środek organizacyjny.

Art. 14

Nadzór ludzki

Systemy AI wysokiego ryzyka muszą być zaprojektowane tak, aby umożliwić skuteczny nadzór ludzki, w tym podejścia Human-in-the-Loop, Human-on-the-Loop lub Human-in-Command. Jest to środek organizacyjny.

Art. 15

Dokładność i Odporność

Systemy AI wysokiego ryzyka muszą osiągnąć odpowiednie poziomy dokładności, odporności i cyberbezpieczeństwa. Wymagania dotyczące testów technicznych i walidacji. Jest to środek organizacyjny.

Art. 26

Obowiązki podmiotów wdrażających

Überwacht

SiteGuardian monitoruje wydajność systemów AI i postawę zgodności, generuje dowody audytowe dla obowiązków podmiotów wdrażających i śledzi, czy organizacja wypełnia swoje obowiązki wynikające z AI Act.

Art. 50

Przejrzystość dla ograniczonego ryzyka

Obowiązki ujawniania informacji o chatbotach i deepfake'ach. Użytkownicy muszą być informowani, gdy wchodzą w interakcję z systemami AI. SiteGuardian realizuje to poprzez ocenę opartą na kwestionariuszu inwentaryzacji systemów AI.

Art. 52

Przejrzystość algorytmiczna

Überwacht

Kontrole DSA SiteGuardian obejmują wymagania przejrzystości systemów rekomendacji (odniesienie do Art. 27 DSA), zapewniając, że platformy ujawniają swoje algorytmiczne parametry rekomendacji.

Art. 72

Obowiązki raportowania

Überwacht

Dostawcy i podmioty wdrażające muszą zgłaszać poważne incydenty AI. SiteGuardian wspiera procesy wykrywania i zgłaszania incydentów, śledzi terminy powiadomień i generuje wstępnie wypełnione raporty dla organów nadzoru.

Kluczowe terminy

AI Act wchodzi w życie etapami. Zanotuj te daty.

1 sierpnia 2024 r.

Wejście w życie

Rozporządzenie 2024/1689 opublikowane w Dzienniku Urzędowym i wchodzi w życie.

2 lutego 2025 r.

Zakazane praktyki AI

Obowiązują zakazy dotyczące systemów AI o niedopuszczalnym ryzyku: Social Scoring, nadzór biometryczny w czasie rzeczywistym, manipulacyjna AI, rozpoznawanie emocji w miejscach pracy/szkołach.

2 sierpnia 2025 r.

Zasady GPAI

Obowiązują zasady dotyczące modeli AI ogólnego przeznaczenia (w tym modeli bazowych) i struktur zarządzania.

2 sierpnia 2026 r.

Większość obowiązków obowiązuje

Wchodzą w życie wymagania dotyczące systemów AI wysokiego ryzyka, obowiązki przejrzystości, obowiązki podmiotów wdrażających, oceny zgodności i egzekwowanie kar.

2 sierpnia 2027 r.

AI wysokiego ryzyka z Załącznika I

Wymagania dotyczące systemów AI wysokiego ryzyka wbudowanych w regulowane produkty (wyroby medyczne, maszyny, zabawki itp.) zgodnie z obowiązującym prawodawstwem UE dotyczącym bezpieczeństwa produktów.

Zacznij przygotowania już dziś

Przeskanuj swoją stronę internetową, aby sprawdzić swoją sytuację. SiteGuardian przyporządkowuje wyniki do artykułów AI Act — abyś dokładnie wiedział, co należy poprawić.

Bezpłatny na zawsze dla 1 monitora. Karta kredytowa nie jest wymagana.

Najczęściej zadawane pytania

Czym jest EU AI Act?
EU AI Act (Rozporządzenie 2024/1689) to pierwsza na świecie kompleksowa regulacja dotycząca sztucznej inteligencji. Stosuje podejście oparte na ryzyku do klasyfikacji systemów AI w czterech poziomach: ryzyko niedopuszczalne (zakazane), wysokie ryzyko (surowe wymagania), ograniczone ryzyko (obowiązki przejrzystości) i minimalne ryzyko (brak szczególnych obowiązków).
Kiedy EU AI Act wchodzi w życie?
AI Act ma etapowe terminy: luty 2025 r. dla zakazanych praktyk AI, sierpień 2025 r. dla zasad GPAI, 2 sierpnia 2026 r. dla większości obowiązków, w tym wymagań dotyczących systemów AI wysokiego ryzyka i obowiązków podmiotów wdrażających, oraz sierpień 2027 r. dla AI wysokiego ryzyka wbudowanej w regulowane produkty (Załącznik I).
Kto musi przestrzegać EU AI Act?
Wszyscy dostawcy (deweloperzy) i podmioty wdrażające (użytkownicy) systemów AI wprowadzonych na rynek UE lub używanych na nim muszą stosować się do przepisów, niezależnie od miejsca siedziby. Obejmuje to firmy z siedzibą w UE i firmy spoza UE, których systemy AI wpływają na osoby w UE.
Czym AI Act różni się od RODO?
RODO reguluje przetwarzanie danych osobowych, natomiast AI Act reguluje konkretnie systemy AI w oparciu o ryzyko. Są komplementarne — systemy AI wysokiego ryzyka przetwarzające dane osobowe muszą być zgodne z obydwoma. AI Act dodaje wymagania dotyczące przejrzystości, nadzoru ludzkiego, dokładności i odporności, które wykraczają poza ochronę danych.
Jak SiteGuardian pomaga w zgodności z AI Act?
SiteGuardian przyporządkowuje wymagania zgodności AI poprzez ocenę ryzyka opartą na kwestionariuszach, monitoruje przejrzystość algorytmiczną poprzez odniesienia do DSA (Art. 27 DSA dla systemów rekomendacji), śledzi obowiązki podmiotów wdrażających i postawę zgodności, generuje dowody audytowe oraz wspiera procesy wykrywania i zgłaszania poważnych incydentów AI.