Rozporządzenie w sprawie sztucznej inteligencji (AI Act)

Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2024/1381 z 13 marca 2024 r. w sprawie zharmonizowanych przepisów dotyczących sztucznej inteligencji (w skrócie AI Act) ustanawia jednolite zasady bezpiecznego i odpowiedzialnego stosowania sztucznej inteligencji w Unii Europejskiej. Przepisy weszły w życie i będą stosowane etapami, przy czym większość obowiązków dla systemów „wysokiego ryzyka” zacznie obowiązywać w 2026 r.

AI Act opiera się na podejściu typu risk-based, czyli im wyższe ryzyko dla obywatela lub gospodarki, tym bardziej szczegółowe obowiązki dla wytwórców, importerów i użytkowników systemu AI.

W związku z nadchodzącymi regulacjami oraz rosnącymi oczekiwaniami rynku, warto już dziś przygotować się na zmianę w postrzeganiu roli zarządzania sztuczną inteligencją (AI Governance). Coraz częściej traktowane jest ono nie tylko jako obowiązek wynikający z rozporządzenia AI Act, lecz jako wymagany element ładu korporacyjnego i dowód stosowania najlepszych praktyk w relacjach biznesowych - nawet niezależnie od formalnych wymogów.

AI ACT – Kompleksowe Wsparcie od Cybernite

Kategorie ryzyka według AI Act

  • Zakazane praktyki - np. masowa identyfikacja biometryczna w miejscach publicznych, manipulacja podświadoma, ocena „zdolności społecznej”
  • Systemy wysokiego ryzyka – np. biometria w bankowości, algorytmy rekrutacyjne, AI sterująca infrastrukturą krytyczną czy diagnostyką medyczną
  • Systemy ograniczonego ryzyka - chatbot obsługi klienta, generatory obrazów (wymagania dot. przejrzystości tj. informowanie użytkownika, że rozmawia z AI)
  • Minimalne ryzyko - np. filtry anty-spam, gdzie brak obowiązków prawnych, a jedyne zalecane są dobre praktyki

Kto podlega pod AI Act?

  • Wytwórcy (producenci) modeli i aplikacji AI
  • Importerzy / dystrybutorzy wprowadzający system AI na rynek UE
  • Użytkownicy zawodowi - banki, szpitale, urzędy, firmy przemysłowe, które eksploatują modele AI we własnych procesach
  • Dostawcy usług IT (integratorzy, chmura), gdy system z kategorii high-risk działa pod ich kontrolą

Klient regulowany (np. bank lub urząd) może sklasyfikować Państwa organizację jako „kluczowego dostawcę AI wysokiego ryzyka” i wymusić pełną zgodność, nawet jeśli formalnie Państwa organizacja nie jest bezpośrednio objęta Rozporządzeniem AI Act.

Główne obowiązki dla systemów wysokiego ryzyka

  • System zarządzania ryzykiem AI (Risk Management Framework)
  • Dokumentacja techniczna i rejestr zmian modelu
  • Wysoka jakość i czystość danych treningowych
  • Przejrzystość działania i możliwość audytu (traceability)
  • Ludzki nadzór nad decyzją algorytmu
  • Testy bezpieczeństwa cybernetycznego modelu
  • Rejestracja systemu w unijnej bazie wysokiego ryzyka

Kary za nieprzestrzeganie AI Act

  • Naruszenie zakazów: do 35 mln EUR lub 7 % globalnego rocznego obrotu
  • Naruszenie wymogów dot. systemów wysokiego ryzyka: do 15 mln EUR lub 3 % obrotu
  • Błędne lub niepełne informacje dla organu nadzoru: do 7,5 mln EUR lub 1 % obrotu

Sankcje mają być „skuteczne, proporcjonalne i odstraszające”, przy czym organy krajowe (w Polsce UODO wraz z Ministerstwem Cyfryzacji) będą mogły nakładać je samodzielnie.

Jak pomagamy we wdrożeniu AI Act?

  • Prowadzimy kompleksowe zarządzanie AI (AI Governance) - obejmujące audyt ryzyka, polityki, procedury i rejestry modeli
  • Audytujemy modele i procesy uczenia maszynowego, wskazując luki w zgodności
  • Wspieramy tworzenie kompletnej dokumentacji technicznej i raportu oceny zgodności do rejestru UE
  • Projektujemy bezpieczną architekturę wdrożenia modeli w chmurze i na miejscu
  • Szkolimy zarządy, działy prawne i zespoły data-science z praktycznych wymogów AI Act
  • Opracowujemy scenariusze testów bezpieczeństwa modeli (ataki adversarialne, kradzież modelu, prompt hacking)

Czy chcą mieć Państwo pewność, że Państwa rozwiązania AI spełnią wymogi AI Act i nie wykluczą Państwa organizacji z łańcucha dostaw? 

Zachęcamy do kontaktu