O nas
Kontakt

Unijny akt dotyczący sztucznej inteligencji: czy przełomowa propozycja Europy dotycząca uregulowania sztucznej inteligencji może zostać rzucona na ostatnią przeszkodę?

Laura Kowalczyk

Unijny akt dotyczący sztucznej inteligencji: czy przełomowa propozycja Europy dotycząca uregulowania sztucznej inteligencji może zostać rzucona na ostatnią przeszkodę?

Negocjatorzy mają sfinalizować pierwszy na świecie zbiór przepisów regulujących sztuczną inteligencję (AI), ale załamanie w tym tygodniu może cofnąć sprawę o lata.

Okrzyknięte nowością na świecie, proponowane przez Unię Europejską przepisy dotyczące sztucznej inteligencji (AI) stoją w obliczu decydującego momentu, gdy negocjatorzy próbują w tym tygodniu wypracować ostateczne szczegóły – rozmowy komplikuje nagły rozwój generatywnej sztucznej inteligencji, która produkuje ludzkie- jak praca.

Oczekiwano, że unijna ustawa o sztucznej inteligencji, zaproponowana po raz pierwszy w 2019 r., będzie pierwszym na świecie kompleksowym rozporządzeniem w sprawie sztucznej inteligencji, co jeszcze bardziej ugruntuje pozycję bloku składającego się z 27 krajów jako światowego wyznaczacza trendów, jeśli chodzi o kontrolowanie branży technologicznej.

Jednak proces ten utknął w ostatniej chwili w wyniku bitwy o sposób zarządzania systemami stanowiącymi podstawę usług AI ogólnego przeznaczenia, takich jak ChatGPT OpenAI i chatbot Bard firmy Google.

Duże firmy technologiczne lobbują przeciwko temu, co uważają za nadmierną regulację, która tłumi innowacje, podczas gdy europejscy prawodawcy chcą dodatkowych zabezpieczeń dla najnowocześniejszych systemów sztucznej inteligencji opracowywanych przez te firmy.

Tymczasem Stany Zjednoczone, Wielka Brytania, Chiny i globalne koalicje, takie jak Grupa 7 głównych demokracji, dołączyły do ​​wyścigu mającego na celu stworzenie barier dla szybko rozwijającej się technologii, co podkreślają ostrzeżenia badaczy i grup praw człowieka o egzystencjalnych zagrożeniach, jakie stwarza generatywna sztuczna inteligencja ludzkości, a także zagrożenia dla życia codziennego.

Obawy wokół generatywnej sztucznej inteligencji

„Zamiast ustawy o sztucznej inteligencji stać się światowym złotym standardem w zakresie regulacji sztucznej inteligencji, istnieje niewielka, ale rosnąca szansa, że ​​nie zostanie ona uzgodniona przed wyborami do Parlamentu Europejskiego w przyszłym roku”, powiedział Nick Reiners, analityk polityki technologicznej w Eurasia Group, firmą doradczą w zakresie ryzyka politycznego.

(Sztuczna inteligencja jest) zbyt ważna, aby nie regulować, i zbyt ważna, aby nie regulować dobrze. Wyścig powinien toczyć się o najlepsze przepisy dotyczące sztucznej inteligencji, a nie o pierwsze przepisy dotyczące sztucznej inteligencji.

Kenta Walkera

Prezes ds. spraw globalnych, Google

Powiedział, że „jest wiele do ustalenia” podczas ostatniej rundy rozmów, która – jak mają nadzieję urzędnicy – ​​odbędzie się w środę. Nawet jeśli zgodnie z oczekiwaniami będą pracować do późna w nocy, być może będą musieli się spieszyć, aby ukończyć prace w nowym roku, powiedział Reiners.

Kiedy Komisja Europejska, organ wykonawczy UE, zaprezentowała projekt w 2021 r., prawie nie wspomniała o systemach sztucznej inteligencji ogólnego przeznaczenia, takich jak chatboty. Propozycja klasyfikacji systemów sztucznej inteligencji według czterech poziomów ryzyka – od minimalnego do niedopuszczalnego – miała zasadniczo służyć jako przepisy dotyczące bezpieczeństwa produktów.

Bruksela chciała przetestować i certyfikować informacje wykorzystywane przez algorytmy napędzające sztuczną inteligencję, podobnie jak kontrole bezpieczeństwa konsumentów w przypadku kosmetyków, samochodów i zabawek.

Zmieniło się to wraz z rozwojem generatywnej sztucznej inteligencji, która wywołała zachwyt, komponując muzykę, tworząc obrazy i pisząc eseje przypominające ludzką pracę.

Wzbudziło to również obawy, że technologię tę można wykorzystać do przeprowadzania masowych cyberataków lub tworzenia nowej broni biologicznej.

Ryzyko skłoniło prawodawców UE do udoskonalenia ustawy o sztucznej inteligencji poprzez rozszerzenie jej na modele podstawowe. Systemy te, zwane także dużymi modelami językowymi (LLM), są szkolone na ogromnych zbiorach prac pisanych i obrazów zeskrobanych z Internetu.

Modele podstawowe dają generatywnym systemom AI, takim jak ChatGPT, możliwość tworzenia czegoś nowego, w przeciwieństwie do tradycyjnej sztucznej inteligencji, która przetwarza dane i realizuje zadania według z góry określonych reguł.

Chaos, który wystąpił w zeszłym miesiącu w wspieranym przez Microsoft OpenAI, które zbudowało jeden z najsłynniejszych modeli podstawowych, GPT-4, uwydatnił w oczach niektórych europejskich przywódców niebezpieczeństwa związane z zezwoleniem kilku dominującym firmom zajmującym się sztuczną inteligencją na kontrolowanie się.

Chociaż dyrektor generalny Sam Altman został zwolniony i szybko ponownie zatrudniony, niektórzy członkowie zarządu z głębokimi zastrzeżeniami co do zagrożeń dla bezpieczeństwa stwarzanych przez sztuczną inteligencję odeszli, sygnalizując, że ład korporacyjny związany ze sztuczną inteligencją może paść ofiarą dynamiki sali konferencyjnej.

Opór Francji, Włoch i Niemiec

„Przynajmniej wszystko jest teraz jasne”, że firmy takie jak OpenAI bronią swoich przedsiębiorstw, a nie interesu publicznego, powiedział europejski komisarz Thierry Breton na konferencji poświęconej sztucznej inteligencji we Francji kilka dni po zamieszaniu.

Opór wobec przepisów rządowych dotyczących tych systemów sztucznej inteligencji pojawił się z nieprawdopodobnego miejsca: z Francji, Niemiec i Włoch. Trzy największe gospodarki UE wycofały się, przedstawiając stanowisko opowiadające się za samoregulacją.

Zmiana zdania była postrzegana jako krok mający na celu pomoc rodzimym graczom zajmującym się generatywną sztuczną inteligencją, takim jak francuski startup Mistral AI i niemiecki Aleph Alpha.

Kryje się za tym „determinacja, aby nie pozwolić amerykańskim firmom zdominować ekosystem sztucznej inteligencji, tak jak miało to miejsce w przypadku poprzednich fal technologii, takich jak chmura obliczeniowa, handel elektroniczny i media społecznościowe” – powiedział Reiners.

Grupa wpływowych informatyków opublikowała list otwarty, w którym ostrzega, że ​​osłabienie ustawy o sztucznej inteligencji w ten sposób byłoby „historyczną porażką”.

Tymczasem dyrektorzy Mistral pokłócili się w Internecie z badaczem z organizacji non-profit wspieranej przez Elona Muska, której celem jest zapobieganie „ryzykowi egzystencjalnemu” ze strony sztucznej inteligencji.

Sztuczna inteligencja jest „zbyt ważna, aby nie regulować, i zbyt ważna, aby nie regulować dobrze” – powiedział w zeszłym tygodniu w przemówieniu w Brukseli główny urzędnik ds. prawnych Google, Kent Walker. „Wyścig powinien odbywać się o najlepsze przepisy dotyczące sztucznej inteligencji, a nie o pierwsze przepisy dotyczące sztucznej inteligencji”.

Modele podstawowe, wykorzystywane do szerokiego zakresu zadań, okazują się najtrudniejszą kwestią dla negocjatorów UE, ponieważ ich uregulowanie „jest sprzeczne z logiką całego prawa”, opierającego się na ryzyku, jakie stwarzają konkretne zastosowania, stwierdziła Iverna McGowan, dyrektor ds. Biuro na Europę w Centrum Demokracji i Technologii non-profit zajmującej się prawami cyfrowymi.

Charakter systemów sztucznej inteligencji ogólnego przeznaczenia oznacza, że ​​„nie wiadomo, w jaki sposób są stosowane” – stwierdziła.

Jednocześnie potrzebne są regulacje, „ponieważ w przeciwnym razie na dole łańcucha dostaw żywności nie byłoby odpowiedzialności”, gdy inne firmy tworzą z nimi usługi, stwierdziła McGowan.

Altman zaproponował amerykańską lub globalną agencję, która udzielałaby licencji na najpotężniejsze systemy sztucznej inteligencji. Zasugerował w tym roku, że OpenAI może opuścić Europę, jeśli nie będzie w stanie przestrzegać przepisów UE, ale szybko wycofał się z tych komentarzy.

Ostatnia szansa na osiągnięcie konsensusu w sprawie sztucznej inteligencji

Aleph Alpha stwierdziła, że ​​„potrzebne jest zrównoważone podejście” i poparła podejście UE oparte na ryzyku. Jednak „nie ma to zastosowania” do modeli fundamentów, które wymagają „bardziej elastycznych i dynamicznych” przepisów, stwierdziła niemiecka firma zajmująca się sztuczną inteligencją.

Istnieje duża szansa, że ​​rzeczywiście będzie to ostatnia rozmowa, ale istnieje również duża szansa, że ​​nadal potrzebowalibyśmy więcej czasu na negocjacje.

Dragosa Tudorache’a

Rumuński poseł do Parlamentu Europejskiego i negocjator ustawy o sztucznej inteligencji

Negocjatorzy UE wciąż nie rozwiązali jeszcze kilku innych kontrowersyjnych kwestii, w tym propozycji całkowitego zakazu publicznego rozpoznawania twarzy w czasie rzeczywistym.

Kraje chcą wyjątku, aby organy ścigania mogły go wykorzystać do odnalezienia zaginionych dzieci lub terrorystów, ale organizacje praw człowieka obawiają się, że skutecznie stworzy to podstawę prawną dla inwigilacji.

W środę trzy gałęzie rządów UE stoją przed jedną z ostatnich szans na osiągnięcie porozumienia.

Nawet jeśli tak się stanie, 705 prawodawców z bloku nadal będzie musiało podpisać się pod ostateczną wersją. Głosowanie to musi się odbyć do kwietnia, zanim w czerwcu rozpoczną kampanię przed wyborami ogólnounijnymi.

Prawo nie wchodziłoby w życie przed okresem przejściowym, zwykle trwającym dwa lata.

Jeśli nie zdążą na czas, uchwalenie prawodawstwa zostanie odroczone do końca przyszłego roku – po objęciu urzędu przez nowych przywódców UE, którzy mogą mieć odmienne poglądy na temat sztucznej inteligencji.

„Istnieje duża szansa, że ​​rzeczywiście będzie to ostatnia, ale istnieje równie szansa, że ​​nadal potrzebowalibyśmy więcej czasu na negocjacje” – powiedział w panelu Dragos Tudorache, rumuński prawodawca współprowadzący negocjacje w sprawie ustawy o sztucznej inteligencji w Parlamencie Europejskim dyskusja w zeszłym tygodniu.

W jego biurze powiedziano, że nie jest dostępny na rozmowę.

„To nadal bardzo płynna rozmowa” – powiedział podczas wydarzenia w Brukseli. „Będziemy trzymać Was w niepewności do ostatniej chwili”.