Co po raz pierwszy zakazano sztucznej inteligencji
Unia Europejska wprowadziła prawo dotyczące wykorzystywania sztucznej inteligencji. Dokument AI Act został przyjęty przez Radę UE. Chociaż proces legislacyjny jeszcze formalnie trwa, to zostały jedynie „formalności”.
To pierwsza na świecie tak kompleksowa i rozbudowana regulacja kwestii sztucznej inteligencji, a pod nazwą AI Act (czy Akt w sprawie sztucznej inteligencji) kryje się „Rozporządzenie w sprawie ustanowienia zharmonizowanych przepisów dotyczących sztucznej inteligencji”. Nowe przepisy to rozporządzenie, czyli obowiązują bezpośrednio i jednolicie w całej Unii. Mimo wejścia w życie nie będą stosowane od razu, ale stopniowo – po 6, 12, 24 i w niewielkim zakresie nawet po 36 miesiącach (zasadnicza część regulacji będzie stosowana po 2 latach). Przepisy mają charakter administracyjny, czyli określają przede wszystkim czy i w jakim zakresie można wykorzystywać AI.
Co ważne jednak, AI Act nie reguluje wszystkich obszarów prawa związanych z AI, np. w zasadzie nie dotyka kwestii praw własności intelektualnej (które budzą duże wątpliwości).
- Przyjęto zasadę ryzyka, to znaczy, że ograniczenia i wymogi co do stosowania AI są tym większe, im bardziej dane zastosowanie ingeruje w prawa jednostki i im większe ryzyko powoduje – mówi w rozmowie z MarketNews24 Marcin Ręgorowicz, Managing Associate, Kancelaria Traple Konarski Podrecki i Wspólnicy.
Wprowadzono zakazane zastosowania dla systemów o nieakceptowalnym poziomie ryzka, a za takie uznano na przykład systemy do behawioralnej manipulacji decyzjami ludzi czy systemy do przewidywania ryzyka popełnienia przestępstwa.
Drugą kategorią są systemy wysokiego ryzyka stosowane np. do podejmowania decyzji o zatrudnieniu, w edukacji i. przy dostępnie do usług, takich jak np. wydawaniu decyzji kredytowych. Przy systemach wysokiego ryzyka wprowadzono szereg dodatkowych ograniczeń i obowiązków stosowania.
Pozostałe systemy o ograniczonym lub minimalnym ryzyku mogą być stosowane w zasadzie bez ograniczeń i z minimalnymi wymaganiami, głównie dotyczącymi transparentności, obowiązkami informacyjnym.
Jest też szereg innych regulacji, np. dla modeli ogólnego zastosowania (takich jak GPT).
Co ważne obowiązki są różnicowane w zależności od grup podmiotów. Zdecydowanie więcej obowiązków ma dostawca całego systemu AI, niż firma, która wykorzystuje dane narzędzie w ramach swojej działalności.
Wprowadzono pewne dodatkowe regulacje, a przykładem jest obowiązek oznaczania deep faków. Dodatkowo przyznano jednostkom określone prawa bezpośrednio, np. prawo do żądania wydania decyzji przez człowieka.
Przepisy wprowadzą nowe instytucje np. urzędy (unijny i krajowe) nadzoru nad AI.
- Przepisy wprowadzają również kary za ich nieprzestrzeganie, nawet do 35 mln euro lub 7% całkowitego rocznego światowego obrotu – wyjaśnia Marcin Ręgorowicz, Kancelaria Traple Konarski Podrecki i Wspólnicy.
Co ważne, AI Act nie wyłącza innych przepisów, np. RODO jest dalej w pełnym zakresie stosowane do przetwarzania danych osobowych w systemach AI.
Jak można oceniać nowe przepisy? Chwalony jest zakaz wykorzystywania niektórych najbardziej „inwazyjnych” zastosowań czy przyznanie jednostkom prawa do informacji dotyczących wykorzystania sztucznej inteligencji. Krytyczne uwagi dotyczą przede wszystkim szeregu dodatkowych obowiązków, których nie mają podmioty spoza UE – co może osłabić pozycję konkurencyjną UE na globalnym rynku.