Wejście w życie europejskiego aktu w sprawie sztucznej inteligencji

04 sierpnia 2024

W dniu 1 sierpnia 2024 r. wszedł w życie europejski akt w sprawie sztucznej inteligencji (AI Act), który jest pierwszym na świecie kompleksowym rozporządzeniem w sprawie sztucznej inteligencji. Akt ten ma na celu zapewnienie, aby sztuczna inteligencja opracowywana i wykorzystywana w UE była wiarygodna, z zabezpieczeniami chroniącymi prawa podstawowe obywateli. Rozporządzenie ma na celu ustanowienie zharmonizowanego rynku wewnętrznego sztucznej inteligencji w UE, zachęcanie do korzystania z tej technologii oraz stworzenie środowiska sprzyjającego innowacjom i inwestycjom.

Akt w sprawie sztucznej inteligencji wprowadza przyszłościową definicję sztucznej inteligencji opartą na bezpieczeństwie produktów i podejściu opartym na analizie ryzyka w UE:

  • Minimalne ryzyko: Do tej kategorii należy większość systemów sztucznej inteligencji, takich jak systemy rekomendacji oparte na sztucznej inteligencji i filtry spamu. Systemy te nie podlegają obowiązkom wynikającym z aktu w sprawie sztucznej inteligencji ze względu na ich minimalne ryzyko dla praw i bezpieczeństwa obywateli. Przedsiębiorstwa mogą dobrowolnie przyjąć dodatkowe kodeksy postępowania.
  • Szczególne ryzyko (związane z przejrzystością): Systemy sztucznej inteligencji, takie jak chatboty, muszą wyraźnie ujawniać użytkownikom, że wchodzą w interakcję z maszyną. Niektóre treści generowane przez sztuczną inteligencję, w tym deepfake, muszą być oznakowane jako takie właśnie, a użytkownicy muszą być informowani o stosowaniu systemów kategoryzacji biometrycznej lub rozpoznawania emocji. Ponadto dostawcy AI będą musieli opracowywać systemy, w ramach których sztucznie wygenerowane treści – audio, wideo, tekst i obrazy – będą oznaczone w formacie nadającym się do odczytu maszynowego i możliwe do zidentyfikowania jako sztucznie generowane lub przetwarzane.
  • Wysokie ryzyko: Systemy sztucznej inteligencji zidentyfikowane jako systemy wysokiego ryzyka będą musiały spełniać rygorystyczne wymogi, w tym systemy ograniczania ryzyka, wysoką jakość zbiorów danych, rejestrowanie działalności, szczegółową dokumentację, jasne informacje dla użytkowników, nadzór ze strony człowieka oraz wysoki poziom solidności, dokładności i cyberbezpieczeństwa. Systemy sztucznej inteligencji wysokiego ryzyka obejmują na przykład systemy sztucznej inteligencji wykorzystywane do rekrutacji lub oceny, czy ktoś jest uprawniony do uzyskania pożyczki lub do prowadzenia autonomicznych robotów.
  • Niedopuszczalne ryzyko: Systemy sztucznej inteligencji uznane za wyraźne zagrożenie dla praw podstawowych ludzi zostaną zakazane. Obejmuje to systemy lub aplikacje sztucznej inteligencji, które manipulują ludzkimi zachowaniami w celu obejścia wolnej woli użytkowników, takie jak zabawki wykorzystujące pomoc głosową zachęcającą małoletnich do niebezpiecznych zachowań, systemy umożliwiające „scoring społeczny” przez rządy lub przedsiębiorstwa oraz niektóre zastosowania prognozowania działań policyjnych. Co więcej, zabronione będą niektóre zastosowania systemów biometrycznych, np. wykorzystywanie systemów rozpoznawania emocji w miejscach pracy, oraz niektóre systemy klasyfikacji ludności lub zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej do celów egzekwowania prawa (z wąskimi wyjątkami).

Aby uzupełnić ten system, akt w sprawie sztucznej inteligencji wprowadza również przepisy dotyczące tzw. modeli sztucznej inteligencji ogólnego zastosowania, które są wysoce sprawnymi modelami sztucznej inteligencji zaprojektowanymi do wykonywania szerokiego zakresu zadań, takich jak generowanie tekstu podobnego do człowieka. Modele sztucznej inteligencji ogólnego zastosowania są coraz częściej wykorzystywane jako elementy zastosowań sztucznej inteligencji. Akt w sprawie sztucznej inteligencji zapewni przejrzystość w całym łańcuchu wartości i zaradzi ewentualne ryzyko systemowe najbardziej zdolnych modeli.

Stosowanie i egzekwowanie przepisów dotyczących AI

Państwa członkowskie mają czas do dnia 2 sierpnia 2025 r. na wyznaczenie właściwych organów krajowych, które będą nadzorować stosowanie przepisów dotyczących systemów sztucznej inteligencji i prowadzić działania w zakresie nadzoru rynku. Biuro Komisji ds.Sztucznej Inteligencji będzie kluczowym organem wdrażającym akt w sprawie sztucznej inteligencji na szczeblu UE, a także organem odpowiedzialnym za egzekwowanie przepisów dotyczących modeli sztucznej inteligencji ogólnego zastosowania.

Trzy organy doradcze będą wspierać wdrażanie przepisów. Europejska Rada ds. Sztucznej Inteligencji zapewni jednolite stosowanie aktu w sprawie sztucznej inteligencji we wszystkich państwach członkowskich UE i będzie pełnić rolę głównego organu współpracy między Komisją a państwami członkowskimi. Panel naukowy złożony z niezależnych ekspertów zapewni doradztwo techniczne i wkład w egzekwowanie przepisów. Panel ten może w szczególności powiadamiać Urząd ds. Sztucznej Inteligencji o zagrożeniach związanych z modelami sztucznej inteligencji ogólnego zastosowania. Urząd ds. Sztucznej Inteligencji może również otrzymać wytyczne od forum doradczego złożonego z różnych zainteresowanych stron.

Na przedsiębiorstwa nieprzestrzegające przepisów, będą nakładane grzywny. Mogą one wynieść do 7 % światowego rocznego obrotu za naruszenia zakazanych zastosowań sztucznej inteligencji, do 3 % za naruszenia innych obowiązków i do 1,5 % za dostarczanie nieprawidłowych informacji.

Dalsze kroki

Większość przepisów aktu w sprawie sztucznej inteligencji zacznie obowiązywać 2 sierpnia 2026 r. Zakazy dotyczące systemów sztucznej inteligencji uznanych za stwarzające niedopuszczalne ryzyko będą jednak obowiązywać już po sześciu miesiącach, natomiast przepisy dotyczące tzw. modeli sztucznej inteligencji ogólnego przeznaczenia będą miały zastosowanie po 12 miesiącach.

Aby uzupełnić okres przejściowy przed pełnym wdrożeniem, Komisja uruchomiła pakt na rzecz sztucznej inteligencji. W ramach tej inicjatywy zachęca się twórców AI do dobrowolnego przyjęcia kluczowych obowiązków wynikających z aktu w sprawie sztucznej inteligencji przed upływem przewidzianych prawem terminów. 

Komisja pracuje również nad wytycznymi w celu określenia i uszczegółowienia sposobu wdrożenia aktu w sprawie sztucznej inteligencji oraz ułatwienia stosowania instrumentów współregulacyjnych, takich jak normy i kodeksy postępowania. Komisja ogłosiła zaproszenie do wyrażenia zainteresowania udziałem w opracowaniu pierwszego ogólnego kodeksu praktyk w zakresie sztucznej inteligencji, a także w konsultacjach z udziałem wielu zainteresowanych stron, umożliwiając wszystkim zainteresowanym stronom wypowiedzenie się na temat pierwszego kodeksu postępowania w ramach aktu w sprawie sztucznej inteligencji.

Źródło: Komisja Europejska

Zostaw odpowiedź

Your email address will not be published. Required fields are marked *