O nas
Kontakt

Europoglądy. Regresja do samoregulacji oznacza, że ​​unijna ustawa o sztucznej inteligencji nie załata szkód

Laura Kowalczyk

Europoglądy.  Regresja do samoregulacji oznacza, że ​​unijna ustawa o sztucznej inteligencji nie załata szkód

Kiedy w kwietniu 2021 r. Bruksela zaproponowała pierwsze na świecie międzysektorowe rozporządzenie w sprawie sztucznej inteligencji, twierdziła, że ​​ma chronić prawa podstawowe i promować innowacje. W 2023 r. prawa podstawowe mogą nie pozostać podstawą tego rozporządzenia – pisze dr Kris Shrishak.

Koalicja rządów Francji, Niemiec i Włoch zaproponowała, aby firmy samodzielnie regulowały systemy sztucznej inteligencji, takie jak GPT, które można wykorzystać w różnych zastosowaniach. Propozycja ta wynika z ich sprzeciwu z 9 listopada wobec uregulowania takich systemów sztucznej inteligencji w ustawie o sztucznej inteligencji.

Tego dążenia do samoregulacji w UE nie należy postrzegać w odosobnieniu. Jest to następstwem serii małych kroków podjętych przez ustawodawców, które sprawiają, że nowy wniosek jest rozczarowujący, ale nie zaskakujący.

Dowody pochodzące między innymi z zaniedbań branży reklamy internetowej w zakresie ochrony danych oraz od różnych sygnalistów na Facebooku pokazują, że podejście oparte na samoregulacji w branży technologicznej przyczyniło się do znacznych szkód.

A jednak sztandarowe rozporządzenie UE w sprawie technologii – ustawa o sztucznej inteligencji – opiera się na samoocenie już od chwili zaproponowania jej przez Komisję Europejską w 2021 r.

Krok dalej, a potem krok w tył?

Firmy mogłyby samodzielnie ocenić, czy spełnić wymagania dotyczące systemów sztucznej inteligencji wysokiego ryzyka. Mogliby dobrowolnie przekazywać informacje i zarządzać ryzykiem. Nawet w przypadku poważnych problemów z systemami sztucznej inteligencji wysokiego ryzyka muszą one informować organy regulacyjne jedynie pod ściśle określonymi warunkami, gdyż mogą łatwo uniknąć odpowiedzialności.

Można było mieć nadzieję, że Parlament Europejski i Rada UE uznają kwestie wynikające z samoocen. Zamiast tego posunęli się o krok dalej.

Stworzyli przepisy, które pozwalają firmom wybrać, czy ich systemy AI są obarczone wysokim ryzykiem, czy nie. Innymi słowy, firmy mogą zdecydować, czy chcą podlegać regulacjom, czy nie, ponieważ ustawa o sztucznej inteligencji reguluje jedynie systemy sztucznej inteligencji wysokiego ryzyka.

Przewodnicząca Komisji Europejskiej Ursula von der Leyen przygląda się wynalazkowi „Czy mówisz o robocie?”  w AI Xperience Center w VUB w Brukseli, luty 2020 r
Przewodnicząca Komisji Europejskiej Ursula von der Leyen przygląda się wynalazkowi „Czy mówisz o robocie?” w AI Xperience Center w VUB w Brukseli, luty 2020 r

Oprócz samoocen propozycja Komisji Europejskiej na rok 2021 miała jeszcze jedną lukę. Uwzględniono jedynie systemy sztucznej inteligencji mające „zamierzony cel”.

Już w 2021 r. gromadziło się dowody na szkody powodowane przez systemy sztucznej inteligencji bez z góry określonych celów, takie jak GPT-2 i GPT-3. Komisja Europejska nie uwzględniła ich jednak w swoim wniosku.

Jednak w listopadzie 2022 r. wypuszczono ChatGPT, zbudowany na bazie GPT-3, a popularne media szeroko opisywały szkody.

Parlament Europejski w swoim stanowisku z czerwca tego roku określił zasady dotyczące takich systemów sztucznej inteligencji. Zasady te zostały następnie zmodyfikowane przez hiszpańską prezydencję Rady w październiku i listopadzie.

Wyglądało na to, że ustawodawcy osiągnęli porozumienie w sprawie uregulowania systemów sztucznej inteligencji – dopóki Francja, Niemcy i Włochy nie sprzeciwiły się temu.

Darmowa przejażdżka dla łamiących zasady

Rządy tych krajów zaproponowały obecnie „obowiązkową samoregulację poprzez kodeksy postępowania” bez żadnych sankcji za naruszenia.

W jaki sposób należy przestrzegać zasady, jeśli nie ma jej egzekwowania ani sankcji? I dlaczego jakakolwiek firma miałaby przestrzegać tych zasad?

Łamiący zasady będą mieli darmową przejażdżkę, a zwolennicy zasad uznają to za kosztowne. Będzie to promować wdrażanie w UE szkodliwych i słabo przetestowanych systemów sztucznej inteligencji.

Może nawet promować „innowacyjność” obchodzenia przepisów, jak widać w aferze Volkswagena. Jedyną konkurencją na tym rynku będzie konkurencja pomiędzy łamaczami zasad.

Nowy wniosek umożliwi branży sztucznej inteligencji kontynuowanie obecnych praktyk i zachowanie braku odpowiedzialności. Szkody dla praw podstawowych będą się nadal rozprzestrzeniać, a ustawa o sztucznej inteligencji nie załagodzi tych szkód.

Aktywiści w maskach kanclerza Niemiec Olafa Scholza i prezydenta Francji Emmanuela Macrona trzymają łopaty przed siedzibą UE w Brukseli, luty 2022 r.
Aktywiści w maskach kanclerza Niemiec Olafa Scholza i prezydenta Francji Emmanuela Macrona trzymają łopaty przed siedzibą UE w Brukseli, luty 2022 r.

W październiku Neil Clarke z magazynu Clarkesworld powiedział to wyraźnie w rozmowie z Federalną Komisją Handlu: „Regulacje dotyczące tej branży (AI) są potrzebne wcześniej niż później, a każda chwila, w której pozwala się jej na kontynuowanie obecnych praktyk, powoduje tylko więcej szkód. Ich dotychczasowe działania pokazują, że nie można im ufać, że sami to zrobią.

Regresja UE w kierunku samoregulacji jest dokładnym przeciwieństwem tego, czego wymaga się od superpotęgi regulacyjnej.

Nowy wniosek umożliwi branży sztucznej inteligencji kontynuowanie obecnych praktyk i zachowanie braku odpowiedzialności. Szkody dla praw podstawowych będą się nadal rozprzestrzeniać, a ustawa o sztucznej inteligencji nie załagodzi tych szkód.

Kiedy w kwietniu 2021 r. Komisja Europejska zaproponowała pierwsze na świecie międzysektorowe rozporządzenie w sprawie sztucznej inteligencji, twierdziła, że ​​ma chronić prawa podstawowe i promować innowacje.

Do końca 2023 r. prawa podstawowe mogą nie pozostać podstawowym elementem tego rozporządzenia.