Kiedy w kwietniu 2021 r. Bruksela zaproponowała pierwsze na świecie międzysektorowe rozporządzenie w sprawie sztucznej inteligencji, twierdziła, że ma chronić prawa podstawowe i promować innowacje. W 2023 r. prawa podstawowe mogą nie pozostać podstawą tego rozporządzenia – pisze dr Kris Shrishak.
Koalicja rządów Francji, Niemiec i Włoch zaproponowała, aby firmy samodzielnie regulowały systemy sztucznej inteligencji, takie jak GPT, które można wykorzystać w różnych zastosowaniach. Propozycja ta wynika z ich sprzeciwu z 9 listopada wobec uregulowania takich systemów sztucznej inteligencji w ustawie o sztucznej inteligencji.
Tego dążenia do samoregulacji w UE nie należy postrzegać w odosobnieniu. Jest to następstwem serii małych kroków podjętych przez ustawodawców, które sprawiają, że nowy wniosek jest rozczarowujący, ale nie zaskakujący.
Dowody pochodzące między innymi z zaniedbań branży reklamy internetowej w zakresie ochrony danych oraz od różnych sygnalistów na Facebooku pokazują, że podejście oparte na samoregulacji w branży technologicznej przyczyniło się do znacznych szkód.
A jednak sztandarowe rozporządzenie UE w sprawie technologii – ustawa o sztucznej inteligencji – opiera się na samoocenie już od chwili zaproponowania jej przez Komisję Europejską w 2021 r.
Krok dalej, a potem krok w tył?
Firmy mogłyby samodzielnie ocenić, czy spełnić wymagania dotyczące systemów sztucznej inteligencji wysokiego ryzyka. Mogliby dobrowolnie przekazywać informacje i zarządzać ryzykiem. Nawet w przypadku poważnych problemów z systemami sztucznej inteligencji wysokiego ryzyka muszą one informować organy regulacyjne jedynie pod ściśle określonymi warunkami, gdyż mogą łatwo uniknąć odpowiedzialności.
Można było mieć nadzieję, że Parlament Europejski i Rada UE uznają kwestie wynikające z samoocen. Zamiast tego posunęli się o krok dalej.
Stworzyli przepisy, które pozwalają firmom wybrać, czy ich systemy AI są obarczone wysokim ryzykiem, czy nie. Innymi słowy, firmy mogą zdecydować, czy chcą podlegać regulacjom, czy nie, ponieważ ustawa o sztucznej inteligencji reguluje jedynie systemy sztucznej inteligencji wysokiego ryzyka.
Oprócz samoocen propozycja Komisji Europejskiej na rok 2021 miała jeszcze jedną lukę. Uwzględniono jedynie systemy sztucznej inteligencji mające „zamierzony cel”.
Już w 2021 r. gromadziło się dowody na szkody powodowane przez systemy sztucznej inteligencji bez z góry określonych celów, takie jak GPT-2 i GPT-3. Komisja Europejska nie uwzględniła ich jednak w swoim wniosku.
Jednak w listopadzie 2022 r. wypuszczono ChatGPT, zbudowany na bazie GPT-3, a popularne media szeroko opisywały szkody.
Parlament Europejski w swoim stanowisku z czerwca tego roku określił zasady dotyczące takich systemów sztucznej inteligencji. Zasady te zostały następnie zmodyfikowane przez hiszpańską prezydencję Rady w październiku i listopadzie.
Wyglądało na to, że ustawodawcy osiągnęli porozumienie w sprawie uregulowania systemów sztucznej inteligencji – dopóki Francja, Niemcy i Włochy nie sprzeciwiły się temu.
Darmowa przejażdżka dla łamiących zasady
Rządy tych krajów zaproponowały obecnie „obowiązkową samoregulację poprzez kodeksy postępowania” bez żadnych sankcji za naruszenia.
W jaki sposób należy przestrzegać zasady, jeśli nie ma jej egzekwowania ani sankcji? I dlaczego jakakolwiek firma miałaby przestrzegać tych zasad?
Łamiący zasady będą mieli darmową przejażdżkę, a zwolennicy zasad uznają to za kosztowne. Będzie to promować wdrażanie w UE szkodliwych i słabo przetestowanych systemów sztucznej inteligencji.
Może nawet promować „innowacyjność” obchodzenia przepisów, jak widać w aferze Volkswagena. Jedyną konkurencją na tym rynku będzie konkurencja pomiędzy łamaczami zasad.
W październiku Neil Clarke z magazynu Clarkesworld powiedział to wyraźnie w rozmowie z Federalną Komisją Handlu: „Regulacje dotyczące tej branży (AI) są potrzebne wcześniej niż później, a każda chwila, w której pozwala się jej na kontynuowanie obecnych praktyk, powoduje tylko więcej szkód. Ich dotychczasowe działania pokazują, że nie można im ufać, że sami to zrobią.
Regresja UE w kierunku samoregulacji jest dokładnym przeciwieństwem tego, czego wymaga się od superpotęgi regulacyjnej.
Nowy wniosek umożliwi branży sztucznej inteligencji kontynuowanie obecnych praktyk i zachowanie braku odpowiedzialności. Szkody dla praw podstawowych będą się nadal rozprzestrzeniać, a ustawa o sztucznej inteligencji nie załagodzi tych szkód.
Kiedy w kwietniu 2021 r. Komisja Europejska zaproponowała pierwsze na świecie międzysektorowe rozporządzenie w sprawie sztucznej inteligencji, twierdziła, że ma chronić prawa podstawowe i promować innowacje.
Do końca 2023 r. prawa podstawowe mogą nie pozostać podstawowym elementem tego rozporządzenia.