O nas
Kontakt

Duże zwycięstwo UE? Porównanie nowej kalifornijskiej ustawy o sztucznej inteligencji z unijną ustawą o sztucznej inteligencji

Laura Kowalczyk

FILE - The California State Capitol in Sacramento, Calif., is seen on Monday, Aug. 5, 2024.

Kalifornia mogła zobaczyć nową ustawę o sztucznej inteligencji, ale – jak udowodniła europejska ustawa o sztucznej inteligencji – nie wszyscy są zadowoleni z regulacji.

Ponad 100 obecnych i byłych pracowników OpenAI, DeepMind, Meta i Anthropic firmy Google przesłało oświadczenie popierające nową kalifornijską ustawę regulującą sztuczną inteligencję (AI), która do końca miesiąca oczekuje na podpis lub weto gubernatora Kalifornii Gavina Newsoma .

Rządy na całym świecie próbują uregulować sztuczną inteligencję, a Kalifornia staje się ostatnim miejscem, w którym można to zrobić po tym, jak Zgromadzenie Stanowe i Senat przyjęły w sierpniu ustawę o bezpieczeństwie sztucznej inteligencji.

„Uważamy, że najpotężniejsze modele sztucznej inteligencji mogą wkrótce stworzyć poważne zagrożenia, takie jak zwiększony dostęp do broni biologicznej i cyberataki na infrastrukturę krytyczną” – czytamy w opublikowanym w poniedziałek oświadczeniu popierającym projekt ustawy.

Zawiera podpisy zdobywcy nagrody Turinga Geoffreya Hintona, a także obecnych pracowników Google DeepMind i OpenAI, którzy chcieli pozostać anonimowi.

Nowe przepisy dodałyby również ochronę sygnalistów dla pracowników, którzy wypowiadają się na temat zagrożeń związanych z modelami sztucznej inteligencji opracowywanymi przez ich firmy, a także inne środki.

Posunięcie Kalifornii jest zgodne z europejską ustawą o sztucznej inteligencji, która została sfinalizowana na początku tego roku. Oto porównanie i dlaczego nowe regulacje mogą mieć konsekwencje dla firm zajmujących się sztuczną inteligencją na całym świecie.

Jak ustawy regulują sztuczną inteligencję?

Unijna ustawa o sztucznej inteligencji zawiera system oparty na ryzyku, który dzieli modele sztucznej inteligencji na kategorie o ryzyku niedopuszczalnym, wysokim, ograniczonym i minimalnym.

Bardziej rygorystyczne przepisy dotyczą systemów sztucznej inteligencji, które stwarzają największe ryzyko, np. tych stosowanych w służbie zdrowia i infrastrukturze krytycznej. Systemy wysokiego ryzyka poddawane są rygorystycznym testom, zarządzaniu ryzykiem i muszą spełniać rygorystyczne normy UE.

Ryzyko systemowe wynikające z unijnej ustawy o sztucznej inteligencji jest w rzeczywistości szersze. Przechwytuje więcej rzeczy. Ujmuje te masowe ofiary, ale ukazuje także istniejącą w nich dyskryminację strukturalną i nie tylko.

Risto Uuk

Kierownik badań w UE, Instytut Przyszłości Życia

Ustawodawstwo kalifornijskie, oficjalnie nazywane ustawą Safe and Secure Innovation for Frontier Artificial Intelligence Models Act (ustawa Senatu nr 1047), ma na celu ustanowienie krytycznych protokołów bezpieczeństwa dla wielkoskalowych systemów sztucznej inteligencji – w szczególności tych, które wymagają ponad 100 milionów dolarów (90 milionów euro) w dane do szkoleń, czego obecnie nie robi żadna firma zajmująca się sztuczną inteligencją.

Twórcy sztucznej inteligencji muszą dokładnie przetestować swoje modele i publicznie ujawnić stosowane środki bezpieczeństwa.

Prokurator generalny stanu Kalifornia miałby również uprawnienia do pozywania firm zajmujących się sztuczną inteligencją za każdą poważną szkodę, którą definiuje jako masowe ofiary lub szkody materialne przekraczające 500 milionów dolarów (450 milionów euro).

Ustawodawstwo kalifornijskie umożliwiłoby również szybkie zamknięcie modelu sztucznej inteligencji, jeśli okaże się, że jest niebezpieczny, i prowadzenie testów w celu oceny, czy może spowodować lub „umożliwić krytyczną szkodę”.

Który akt idzie dalej?

„Można powiedzieć, że kalifornijska ustawa wygląda w pewnym sensie poważniej, ponieważ bardzo wyraźnie określa progi, wskazuje 500 milionów masowych ofiar i tego rodzaju bardzo konkretne progi” – powiedział Risto Uuk, kierownik badań UE w Instytucie Future of Life.

„Ale w rzeczywistości ryzyko systemowe wynikające z unijnej ustawy o sztucznej inteligencji jest w rzeczywistości szersze. Obejmuje więcej rzeczy. Uwzględnia te masowe ofiary, ale uwzględnia występującą w nim dyskryminację strukturalną i nie tylko” – powiedział TylkoGliwice Next.

Kalifornijskie prawo wydaje się być dobrą aktualizacją podejścia UE z 2023 roku.

Kaia Zennera

Szef biura i doradca ds. polityki cyfrowej posła do Parlamentu Europejskiego Axela Vossa

„Prawdopodobnie dlatego niektórzy ludzie powiedzieliby, że kalifornijska ustawa jest bardzo delikatna” – dodał.

Ustawodawstwo kalifornijskie jest również bardziej przyszłościowe niż unijna ustawa o sztucznej inteligencji, ponieważ koncentruje się szczególnie na modelach sztucznej inteligencji, które określa jako „objęte”, a które jeszcze nie istnieją.

Definiuje się je jako modele, które są szkolone przy użyciu określonej ilości mocy obliczeniowej lub które mają wydajność podobną do najnowocześniejszego modelu podstawowego.

Zamiast tego UE obejmuje szeroką gamę różnych systemów sztucznej inteligencji, takich jak sztuczna inteligencja na potrzeby edukacji lub rekrutacji.

Inni jednak twierdzą, że kalifornijska ustawa idzie dalej w innych aspektach, ponieważ jest bardziej szczegółowa.

„SB 1047 wprowadza znacznie bardziej szczegółowe zasady dotyczące modeli podstawowych, na przykład dotyczące przejrzystości” – powiedział TylkoGliwice Next Kai Zenner, dyrektor biura i doradca ds. polityki cyfrowej posła do Parlamentu Europejskiego Axela Vossa i który pracował nad unijną ustawą o sztucznej inteligencji.

„Ustawa kalifornijska wydaje się być dobrą aktualizacją podejścia UE z 2023 r., uwzględniającą większość nowych obserwacji i osiągnięć technicznych z ostatnich miesięcy” – dodał.

Reakcja technologiczna: co mają ze sobą wspólnego

Krytycy zarówno unijnej ustawy o sztucznej inteligencji, jak i kalifornijskiej ustawy argumentują, że przepisy dotyczące sztucznej inteligencji spowolniłyby innowacje.

Mówią to nie tylko firmy zajmujące się sztuczną inteligencją, ale także politycy. Nancy Pelosi, była spikerka Izby Reprezentantów USA i obecna przedstawicielka Kalifornii, a także burmistrz San Francisco London Breed sprzeciwiły się ustawie, twierdząc, że zwiększy ona niepotrzebną biurokrację, która mogłaby stłumić innowacje.

Podczas negocjacji w sprawie unijnej ustawy o sztucznej inteligencji spotkały się z oporem ze strony firm zajmujących się sztuczną inteligencją, ale nie w tak dużym stopniu ze strony polityków, z wyjątkiem prezydenta Francji Emmanuela Macrona, który w ostatniej chwili opowiedział się przeciwko „karnym” regulacjom dotyczącym sztucznej inteligencji.

„W Stanach Zjednoczonych możesz sobie pozwolić na zaznaczenie znacznika wyboru obok swojego imienia i nazwiska, posiadanie miliona obserwujących i powiedzenie (w mediach społecznościowych), że ta ustawa doprowadzi do uwięzienia założycieli start-upów i zwolnienia wielu osób odpowiadaj, polub go i udostępniaj dalej” – powiedział Hamza Chaudhry, specjalista ds. polityki amerykańskiej w non-profit Future of Life Institute z siedzibą w Waszyngtonie.

Lobbing AI

„Myślę, że tego typu rzeczy zdarzały się w Brukseli znacznie rzadziej niż w Sacramento” – powiedział TylkoGliwice Next, dodając, że wysiłki lobbujące są „znacznie większe niż w DC i Sacramento niż w Brukseli” ze względu na „szeroko historyczne powodów”.

„To, co interesujące w sprzeciwie wobec tej (kalifornijskiej) ustawy, polega na tym, że lobby technologicznemu udało się znacjonalizować tę dyskusję w sposób, w jaki nie było to konieczne” – powiedział.

„Była spikerka Izby Reprezentantów, sama w sobie wielka decydentka polityczna, po raz pierwszy od wielu, wielu lat wypowiadała się w sprawie projektu ustawy stanowej. Komisja naukowa Izby w Waszyngtonie rozpatrywała projekt ustawy stanowej w Kalifornii, ja pomyśl po raz pierwszy od co najmniej 20 lat”.

Chaudhry powiedział, że w związku z tym pojawia się pytanie, czy jest to kontrowersyjna ustawa, czy też „jedna z najgorszych ustaw, jakie kiedykolwiek widziałeś”.

Globalne implikacje

Prawo kalifornijskie miałoby zastosowanie do stanu, w którym znajduje się 35 z 50 największych na świecie firm zajmujących się sztuczną inteligencją, takich jak OpenAI. Miałoby to jednak zastosowanie także do firm zajmujących się sztuczną inteligencją prowadzących działalność w tym stanie, a nie tylko firm z siedzibą w Kalifornii.

Ponieważ regulacje dotyczące sztucznej inteligencji obowiązują już w Europie i Chinach, posiadanie innego zestawu przepisów faktycznie ułatwiłoby to przedsiębiorstwom.

„Jeśli kalifornijska ustawa zostanie przyjęta lub będzie zawierała rozporządzenie, UE będzie miała rozporządzenie, Chiny będą miały regulacje dotyczące sztucznej inteligencji i jakieś inne główne centrum innowacji na świecie będzie posiadało regulacje, wówczas każdemu będzie znacznie łatwiej prowadzić działalność międzynarodową, zwłaszcza jeśli przepisy są w pewnym stopniu ujednolicone” – stwierdził Uuk.

Kalifornijska ustawa byłaby „wielką wygraną dla UE, a także pomogłaby w ujednoliceniu podejścia regulacyjnego na całym świecie” – dodał Zenner.

„W Kalifornii, a także w Brukseli przepisy w tak dynamicznej i nowej dziedzinie zawsze będą na początku niedoskonałe. Należy je regularnie dostosowywać i uszczegóławiać – UE robi to za pomocą kodeksów i standardów” – powiedział.