Państwa członkowskie i Parlament Europejski osiągnęły wstępne porozumienie w sprawie ustawy o sztucznej inteligencji, która jest pierwszą na świecie próbą uregulowania szybko rozwijającej się technologii w sposób kompleksowy i oparty na etyce.
Porozumienie osiągnięto na szczeblu politycznym w piątkowy wieczór, po rozmowach, które trwały cały dzień i nastąpiły po nieudanym maratonie trwającym od środy do czwartkowego popołudnia. W sumie cały atak trwał ponad 35 godzin.
Przełom nastąpił dzięki agresywnemu lobbowaniu ze strony firm technologicznych różnej wielkości, surowym ostrzeżeniom ze strony społeczeństwa obywatelskiego i intensywnej kontroli mediów, ponieważ ustawodawstwo Brukseli mogłoby z łatwością wpłynąć na podobne wysiłki regulacyjne na całym świecie.
„Historyczne! UE staje się pierwszym kontynentem, który ustalił jasne zasady wykorzystania sztucznej inteligencji” – powiedział Thierry Breton, europejski komisarz ds. rynku wewnętrznego, który wziął udział w debacie. „Ustawa o sztucznej inteligencji to znacznie więcej niż zbiór przepisów – to punkt startowy dla unijnych start-upów i badaczy, dzięki któremu mogą przewodzić światowemu wyścigowi sztucznej inteligencji”.
Negocjacje były zaciętą walką między rządami a ustawodawcami dotyczącą szeregu bardzo złożonych i technicznych kwestii.
Po zawarciu w czwartek wstępnego kompromisu mającego na celu powstrzymanie podstawowych modeli napędzających chatboty, takie jak ChatGPT OpenAI, piątkowe rozmowy skupiały się głównie na wykorzystaniu danych biometrycznych w czasie rzeczywistym, w tym rozpoznawania twarzy, w przestrzeni publicznej.
W centrum debaty znalazło się pytanie, czy władze państwowe powinny mieć możliwość wdrażania systemów biometrycznych opartych na sztucznej inteligencji, które mogą identyfikować i kategoryzować osoby na podstawie wrażliwych cech, takich jak płeć, rasa, pochodzenie etniczne, religia i przynależność polityczna, a także systemów rozpoznawania emocji i polityki predykcyjnej.
W ramach wspólnego mandatu posłowie do Parlamentu Europejskiego stwierdzili, że praktyki te są „natrętne i dyskryminujące” i dlatego powinny być zakazane na całym terytorium UE. Państwa członkowskie miały jednak zupełnie odmienne zdanie i argumentowały, że wyjątki w zakresie egzekwowania prawa są konieczne, aby wyśledzić przestępców i udaremnić zagrożenia dla bezpieczeństwa narodowego. Na początku tego roku Francja zatwierdziła przepisy umożliwiające stosowanie nadzoru biometrycznego podczas Igrzysk Olimpijskich i Paraolimpijskich w Paryżu w 2024 r. – po raz pierwszy w państwie UE.
Większość energii w piątek pochłonęła kolizja między bezpieczeństwem narodowym a prawami podstawowymi. Hiszpania, sprawująca obecnie rotacyjną prezydencję w Radzie, stanęła przed trudnym zadaniem reprezentowania 27 państw członkowskich i utrzymania jednolitego frontu.
Rozmowy przerwała przedłużająca się przerwa, podczas której parlamentarzyści omawiali między sobą żądania hiszpańskiej prezydencji. Tymczasem uczeni i działacze trafiło do mediów społecznościowych nakłonić posłów do Parlamentu Europejskiego, aby sprzeciwili się wyjątkom dotyczącym egzekwowania prawa.
Ostatecznie Parlament ustąpił i podpisał się pod szeregiem „rygorystycznych warunków”, które umożliwią władzom wykorzystywanie danych biometrycznych w czasie rzeczywistym do wyszukiwania ofiar uprowadzeń, handlu ludźmi i wykorzystywania seksualnego; zapobiegać zagrożeniom terrorystycznym; oraz lokalizować osoby podejrzane o popełnienie poważnych przestępstw, takich jak terroryzm, morderstwo, gwałt i rozbój.
Z kolei kategoryzacja biometryczna oparta na wrażliwych cechach, punktacji społecznej, predykcyjnych działaniach policji, wykorzystywaniu słabych punktów i rozpoznawaniu emocji w miejscu pracy i instytucjach edukacyjnych będzie zakazana.
„Usilnie walczyliśmy o zakaz identyfikacji biometrycznej” – powiedział Brando Benifei, socjalistyczny poseł do Parlamentu Europejskiego, który był współsprawozdawcą. „Ważne było, aby połączyć wszystkie te elementy w jedną całość”.
„Wszystko to składa się na bardzo mocny reżim, który określa, jakiego rodzaju zastosowań sztucznej inteligencji nie chcemy w naszej Unii i na naszym rynku” – powiedział Dragoș Tudorache, drugi współsprawozdawca.
Biorąc pod uwagę złożoność tej kwestii, kompromis osiągnięty w wyniku przeciągających się rozmów będzie prawdopodobnie wymagał dalszego dopracowania w nadchodzących dniach. Carme Artigas, hiszpańska sekretarz stanu ds. cyfryzacji i sztucznej inteligencji, upierała się, że „każdy artykuł” został uzgodniony i nie pozostawił żadnych „luk” umożliwiających obejście poszanowania praw człowieka.
Po przepisaniu tekstu prawnego, który obejmuje setki stron artykułów i załączników, zostanie on przesłany do Parlamentu Europejskiego w celu ponownego głosowania na sali posiedzeń, po czym kraje w Radzie otrzymają zielone światło.
„Mamy nadzieję, że wszystkie (państwa członkowskie) potwierdzą” kompromis, powiedział Artigas zapytany o obawy wyrażone przez Niemcy i Francję.
Oczekuje się, że ostateczne głosowania odbędą się na początku 2024 r. Następnie ustawa zacznie obowiązywać stopniowo.
Stale rozwijająca się technologia
Ustawa o sztucznej inteligencji, przedstawiona po raz pierwszy w kwietniu 2021 r., stanowi przełomową próbę zapewnienia rozwoju najbardziej radykalnie transformacyjnej technologii XXI wieku w sposób skoncentrowany na człowieku i etycznie odpowiedzialny, zapobiegający jej najbardziej szkodliwym konsekwencjom i ograniczający je.
Ustawa jest zasadniczo rozporządzeniem w sprawie bezpieczeństwa produktów, które nakłada rozłożony w czasie zbiór zasad, których firmy muszą przestrzegać, zanim zaoferują swoje usługi konsumentom w dowolnym miejscu na jednolitym rynku UE.
Prawo proponuje strukturę przypominającą piramidę, która dzieli produkty oparte na sztucznej inteligencji na cztery główne kategorie w zależności od potencjalnego ryzyka, jakie stwarzają dla bezpieczeństwa obywateli i ich praw podstawowych: minimalne, ograniczone, wysokie i niedopuszczalne.
Te, które zaliczają się do kategorii minimalnego ryzyka, zostaną zwolnione z dodatkowych zasad, natomiast te oznaczone jako ograniczone ryzyko będą musiały przestrzegać podstawowych obowiązków w zakresie przejrzystości.
Systemy uważane za wysokie ryzyko będą podlegać rygorystycznym przepisom, które będą miały zastosowanie przed wprowadzeniem ich na rynek UE i przez cały okres ich użytkowania, łącznie z istotnymi aktualizacjami. Grupa ta obejmie aplikacje, które mają bezpośredni i potencjalnie zmieniający życie wpływ na obywateli, takie jak oprogramowanie do sortowania CV na potrzeby rozmów kwalifikacyjnych, chirurgia wspomagana robotem i programy oceniania egzaminów na uniwersytetach.
Produkty AI wysokiego ryzyka będą musiały przejść ocenę zgodności, zostać zarejestrowane w unijnej bazie danych, podpisać deklarację zgodności i nosić oznakowanie CE – a wszystko to zanim trafią do konsumentów. Gdy staną się dostępne, znajdą się pod nadzorem władz krajowych, przy wsparciu specjalnego biura ds. sztucznej inteligencji w Komisji Europejskiej.
Systemy sztucznej inteligencji stwarzające niedopuszczalne ryzyko dla społeczeństwa, w tym punktacja społeczna służąca kontroli obywateli i aplikacje wykorzystujące słabe punkty społeczno-gospodarcze, zostaną całkowicie zakazane na całym terytorium UE.
Zgodnie ze wstępną umową firmy naruszające zasady zostaną ukarane wielomilionowymi karami finansowymi w wysokości do 35 mln euro lub 7% światowego obrotu.
Chociaż to podejście oparte na ryzyku zostało dobrze przyjęte w 2021 r., znalazło się pod niezwykłą presją pod koniec 2022 r., kiedy OpenAI uruchomiło ChatGPT i wywołało globalne poruszenie wokół chatbotów. Wkrótce po ChatGPT pojawił się Bard firmy Google, Bing Chat Microsoftu, a ostatnio Q.
Chatboty działają w oparciu o podstawowe modele, które są szkolone na podstawie ogromnych zasobów danych, takich jak tekst, obrazy, muzyka, mowa i kod, aby wykonywać szeroki i płynny zestaw zadań, które mogą zmieniać się w czasie, zamiast mieć określony, niemodyfikowalny zamiar.
Pierwotny wniosek Komisji nie wprowadził żadnych przepisów dotyczących modeli fundamentów, co zmusiło prawodawców do dodania zupełnie nowego artykułu zawierającego obszerną listę obowiązków zapewniających, że systemy te respektują prawa podstawowe, są energooszczędne i spełniają wymogi przejrzystości poprzez ujawnienie ich zawartości. wygenerowane.
Ten nacisk ze strony Parlamentu spotkał się ze sceptycyzmem ze strony państw członkowskich, które zazwyczaj preferują łagodne podejście do stanowienia prawa. Niemcy, Francja i Włochy, trzy największe gospodarki bloku, przedstawiły kontrpropozycję, która opowiadała się za „obowiązkową samoregulacją poprzez kodeksy postępowania” w przypadku modeli fundacji. Posunięcie to wywołało gniewną reakcję prawodawców i groziło wykolejeniem procesu legislacyjnego.
Jednak zniechęcająca perspektywa porzucenia przełomowej ustawy w okresie poprzedzającym przyszłoroczne wybory do Parlamentu Europejskiego zadziałała jako motywacja do wypełnienia luk i zawarcia wstępnego porozumienia, które obecnie przewiduje wymogi w zakresie przejrzystości dla chatbotów, aby zapewnić użytkownikom świadomość, że wchodzą w interakcję z chatbotami system oparty na sztucznej inteligencji.
„Ustawa o sztucznej inteligencji to nowość na skalę światową” – powiedziała Ursula von der Leyen, przewodnicząca Komisji Europejskiej. „Wyjątkowe ramy prawne dla rozwoju sztucznej inteligencji, którym możesz zaufać. A także dla bezpieczeństwa i praw podstawowych ludzi i przedsiębiorstw. Zobowiązanie, które podjęliśmy w naszych wytycznych politycznych – i spełniliśmy”.