AI Act

AI Act, czyli Akt o Sztucznej Inteligencji, to unijne rozporządzenie dotyczące sztucznej inteligencji, które zostało przyjęte przez Parlament Europejski 13 marca 2024 roku.

Przygotowanie i cel regulacji

W miarę postępu w dziedzinie sztucznej inteligencji pojawiają się nowe wyzwania, które dotychczas nie były regulowane w prawodawstwie. AI umożliwia między innymi tworzenie treści za pomocą narzędzi takich jak ChatGPT, ocenianie zachowań społecznych (tzw. scoring), rozpoznawanie twarzy oraz generowanie deepfake’ów. Nowe przepisy mają na celu wspieranie rozwoju sztucznej inteligencji, jednocześnie zapewniając przestrzeganie praw człowieka i ograniczając zjawisko dyskryminacji.

AI Act został zaproponowany przez Komisję Europejską 21 kwietnia 2021 roku, a 13 marca 2024 roku został zatwierdzony przez Parlament Europejski. 21 maja 2024 roku uchwałę tę jednogłośnie zatwierdziła Rada UE.

Założenia

Nowe rozporządzenie przewiduje ustanowienie Europejskiej Rady ds. Sztucznej Inteligencji oraz powołanie organów krajowych w poszczególnych państwach członkowskich. Ich zadaniem będzie zapewnienie skutecznego egzekwowania nowych przepisów na poziomie krajowym. Eksperci przewidują, że wpływ AI Act będzie porównywalny do skutków, jakie przyniosło wprowadzenie Ogólnego Rozporządzenia o Ochronie Danych Osobowych w 2018 roku.

Kategorie systemów

Rozporządzenie definiuje następujące kategorie systemów sztucznej inteligencji:

  • Zakazane praktyki – regulacje zakazują wdrażania systemów, które naruszają godność człowieka, podstawowe wartości demokratyczne i zasady praworządności. Do zakazanych praktyk zaliczają się systemy AI wykorzystujące techniki manipulacji, przewidujące ryzyko przestępczości przez osoby fizyczne, monitorujące styl życia obywateli oraz systemy scoringu społecznego.
  • Wysokie ryzyko – systemy AI, które są częścią bezpieczeństwa produktów lub należą do jednej z 19 kategorii produktów regulowanych przez prawo UE (np. lotnictwo, pojazdy, urządzenia medyczne). Te systemy muszą spełniać rygorystyczne wymogi dotyczące oceny ryzyka, dokumentacji oraz kontroli przez ludzi.
  • Model AI ogólnego przeznaczenia – model trenowany na dużych zbiorach danych, taki jak ChatGPT, który musi przestrzegać zasad takich jak oznaczanie generowanych deepfake’ów oraz zapewnianie kontroli w celu zapobiegania generowaniu nielegalnych treści. Modele, które zostały wytrenowane na ponad 1025 operacjach zmiennoprzecinkowych, są klasyfikowane jako ryzyko systemowe i wymagają dodatkowych mechanizmów nadzoru.
  • Ograniczone ryzyko – systemy AI w tej kategorii mają wymogi dotyczące transparentności, aby użytkownicy byli świadomi korzystania z systemu sztucznej inteligencji. Do tej kategorii należą systemy generujące obrazy i wideo.
  • Minimalne ryzyko – do tej kategorii zaliczają się np. gry komputerowe oraz filtry antyspamowe. Zakłada się, że większość systemów AI będzie kwalifikować się do tej kategorii.

Rozporządzenie wejdzie w życie 1 sierpnia 2024 roku, a w celu ułatwienia dostosowywania się do nowych przepisów, poszczególne regulacje będą wprowadzane stopniowo. AI Act ma być w pełni wdrożony i egzekwowany od 2026 roku.

Harmonogram wprowadzenia

AI Act zacznie obowiązywać 20 dni po publikacji w Dzienniku Urzędowym Unii Europejskiej. Po upływie 6 miesięcy od wejścia w życie zaczną obowiązywać ograniczenia dotyczące systemów AI o wysokim ryzyku oraz zakaz dla systemów AI o niedopuszczalnym ryzyku. 9 miesięcy po wejściu w życie (z co najmniej 3-miesięcznym okresem na wdrożenie) powinny zostać udostępnione kodeksy postępowania przez Europejskie Biuro ds. Sztucznej Inteligencji, które obejmą, ale nie ograniczą się do obowiązków dostawców modeli sztucznej inteligencji ogólnego przeznaczenia (GPAI models). 12 miesięcy po wejściu w życie zacznie obowiązywać regulacja dla dostawców modeli AI ogólnego przeznaczenia, którzy wprowadzają je na rynek UE lub udostępniają pod własną nazwą lub znakiem towarowym. 18 miesięcy po wejściu w życie zacznie obowiązywać akt wykonawczy Komisji dotyczący monitorowania systemów AI po ich wprowadzeniu do obrotu.

Większość obostrzeń zacznie obowiązywać 24 miesiące po wejściu AI Act w życie. Wówczas zostaną wdrożone obowiązki dotyczące systemów sztucznej inteligencji o wysokim ryzyku, a państwa członkowskie wprowadzą przepisy dotyczące kar, w tym kar administracyjnych.

Przypisy

Linki zewnętrzne

Pełny tekst ogólnego rozporządzenia w Dzienniku Urzędowym Unii Europejskiej.