O nas
Kontakt

Polityka UE. Kraje UE zatwierdzają szczegóły techniczne ustawy o sztucznej inteligencji

Laura Kowalczyk

AI rules regulate the use of foundation models including ChatGPT.

Po grudniowym porozumieniu politycznym kraje UE uzgodniły dziś szczegóły techniczne ustawy o sztucznej inteligencji, która stanowi pierwszą na świecie próbę uregulowania tej technologii zgodnie z podejściem opartym na ryzyku. Zanim przepisy wejdą w życie, potrzebuje teraz zgody prawodawców UE.

Do samego końca nie było pewności, czy porozumienie zostanie osiągnięte dzisiaj.

Szczególnie Francja była sceptyczna wobec regulowania tzw. modeli podstawowych, takich jak ChatGPT; kraj sprzeciwił się jakimkolwiek wiążącym obowiązkom dostawców takich modeli. Zastrzeżenia miała także do wymogów przejrzystości i tajemnicy handlowej, ale na dzisiejszym spotkaniu ambasadorów UE tekst został przyjęty jednomyślnie.

Chatboty

Podejście Komisji Europejskiej do sztucznej inteligencji oparte na ryzyku zostało ogólnie pozytywnie przyjęte w 2021 r., kiedy po raz pierwszy przedstawiono zbiór przepisów, ale znalazło się pod presją pod koniec 2022 r., kiedy OpenAI uruchomiło ChatGPT i wywołało globalną debatę na temat chatbotów.

Parlament Europejski dodał nowy artykuł zawierający obszerną listę obowiązków mających na celu zapewnienie poszanowania praw podstawowych w tych systemach, ponieważ plan władzy wykonawczej UE nie zawierał żadnych postanowień dotyczących modeli fundacji.

W odpowiedzi Niemcy, Francja i Włochy przedstawiły kontrpropozycję, która opowiadała się za „obowiązkową samoregulacją poprzez kodeksy postępowania” w przypadku modeli fundacji.

Po dzisiejszym zatwierdzeniu Parlament Europejski najprawdopodobniej będzie głosował w swoich Komisjach Rynku Wewnętrznego i Wolności Obywatelskich w połowie lutego, a na posiedzeniu plenarnym w marcu lub kwietniu. Następnie ustawa ma wejść w życie jeszcze w tym roku i obejmuje okres wdrażania wynoszący do 36 miesięcy. Wymagania dotyczące modeli AI zaczną obowiązywać już po roku.

Prawo dzieli systemy sztucznej inteligencji na cztery główne kategorie w zależności od potencjalnego ryzyka, jakie stwarzają dla społeczeństwa.

Systemy uznane za wysokiego ryzyka będą podlegać rygorystycznym przepisom, które będą obowiązywać przed wprowadzeniem ich na rynek UE. Gdy będą już dostępne, znajdą się pod nadzorem władz krajowych, wspieranych przez biuro AI w Komisji Europejskiej.

Te, które zaliczają się do kategorii minimalnego ryzyka, zostaną zwolnione z dodatkowych zasad, natomiast te oznaczone jako ograniczone ryzyko będą musiały przestrzegać podstawowych obowiązków w zakresie przejrzystości.