O nas
Kontakt

Europoglądy. Czy unijny akt dotyczący sztucznej inteligencji może uwzględnić potrzeby ludzi, jednocześnie na nowo definiując algorytmy?

Laura Kowalczyk

European Commission building with EU AI Act flags, illustration

Sztandarowe prawodawstwo UE dotyczące sztucznej inteligencji nie obejmuje wszystkich przypadków, scenariuszy ani terminologii, ale może uzupełniać istniejące ustawodawstwo państw członkowskich, w tym przepisy dotyczące dostępności, równości czy ochrony socjalnej – pisze Yonah Welker.

8 grudnia negocjatorzy Parlamentu Europejskiego i Rady Europejskiej osiągnęli wstępne porozumienie w sprawie ustawy o sztucznej inteligencji.

Tekst, który wyłonił się z rozmów trójstronnych, musiał zostać poddany pod głosowanie w Parlamencie Europejskim, a także w Radzie Europejskiej.

Aby osiągnięty kompromis polityczny stał się obowiązującym prawem, konieczna była zgoda obu instytucji. W zeszłym tygodniu ostateczny tekst ustawy o sztucznej inteligencji został udostępniony państwom członkowskim. Następnie do piątku Techniczna Grupa Robocza i państwa członkowskie przedstawią swoje uwagi.

W odpowiedzi na poprzednie uwagi państw członkowskich, takich jak Francja, w ostatecznym tekście pozostawiono pytania opinii publicznej dotyczące wpływu tego rozporządzenia na MŚP, innowacje i mechanizmy transferu technologii w regionie.

W szczególności, oprócz szeroko omawianych modeli podstawowych, wiadomo, że ekosystem UE generuje wiele udanych projektów technologicznych dotyczących dostępności przestrzeni publicznych, zaburzeń poznawczych i sensorycznych, technologii medycznych i edukacyjnych, takich jak robotyka społeczna dla dzieci z autyzmem, problemy ze wzrokiem systemy śledzące wspierające trudności w czytaniu i dysleksję, inteligentne tablety dla osób z wadą wzroku, różnorodność technologii rehabilitacyjnych i medycznych.

Technologie te wiążą się z wykorzystaniem rozpoznawania emocji, śledzenia wzroku i wprowadzania złożonych danych od kilku interesariuszy.

W listopadzie OECD opublikowało raport i repozytorium obejmujące ponad sto przypadków technologii wspomagających, technologii pracy i miejsca pracy, wspierających niepełnosprawność za pomocą sztucznej inteligencji.

Ostateczny przepis ustawy o sztucznej inteligencji rozszerza kategorie systemów wysokiego i niedopuszczalnego ryzyka, wprowadza bardziej rygorystyczne przepisy dotyczące rozpoznawania emocji, publicznie dostępnych miejsc pracy i przestrzeni edukacyjnych, specjalne zasady dotyczące sztucznej inteligencji ogólnego przeznaczenia, „szczególnych zagrożeń związanych z przejrzystością” oraz wykaz specjalnych przypadki, wyjątki i uwagi, w tym systemy biometryczne i organy ścigania.

W jaki sposób zasady te mogą równoważyć ułatwianie i ochronę powstających systemów i transferu technologii, szczególnie w odniesieniu do algorytmów wspomagających i publicznych, powiązanych z wyznaczonymi grupami i złożonymi procesami wdrażania?

Przepisy, klasyfikacje i algorytmy

Przez pryzmat kategorii i algorytmów wspomagających, dostępnościowych i społecznych należy wyróżnić kilka elementów zapisów ustawy o sztucznej inteligencji:

Po pierwsze, wraz z aplikacjami mogącymi manipulować ludzkimi zachowaniami, rządową „punktacją społeczną” i niektórymi zastosowaniami policji predykcyjnej, wprowadza ona całkowity zakaz stosowania określonych publicznych i działających w czasie rzeczywistym przypadków systemów biometrii i rozpoznawania emocji.

W szczególności zabrania stosowania rozpoznawania emocji w czterech sprawach publicznych: w miejscach pracy i placówkach oświatowych, w egzekwowaniu prawa oraz w migracji.

(Ustawa o sztucznej inteligencji) zabrania również systemów mających na celu kategoryzację lub „ocenę” osób, w tym zdalną identyfikację biometryczną w czasie rzeczywistym do celów egzekwowania prawa w przestrzeniach publicznie dostępnych – z wyjątkiem „wyczerpująco wymienionych i wąsko zdefiniowanych sytuacji”.

Grecki policjant obsługuje urządzenie akustyczne dalekiego zasięgu LRAD podczas patrolu wzdłuż granicy grecko-tureckiej w pobliżu miasta Feres, maj 2021 r.
Grecki policjant obsługuje urządzenie akustyczne dalekiego zasięgu LRAD podczas patrolu wzdłuż granicy grecko-tureckiej w pobliżu miasta Feres, maj 2021 r.

Zabrania także systemów mających na celu kategoryzację lub „ocenę” osób, w tym zdalną identyfikację biometryczną w czasie rzeczywistym do celów egzekwowania prawa w przestrzeniach publicznie dostępnych (z wyjątkiem „wyczerpująco wymienionych i wąsko zdefiniowanych sytuacji”).

Po drugie, niedawny przepis przenosi także ogólne przypadki „identyfikacji lub wnioskowania o emocjach lub zamiarach osób fizycznych na podstawie ich danych biometrycznych” do kategorii „wysokiego ryzyka”, która obejmuje również systemy związane z określoną infrastrukturą krytyczną, wyrobami medycznymi, systemami określania dostępu do instytucji edukacyjnych lub rekrutacji pracowników, egzekwowania prawa i wymiaru sprawiedliwości.

I choć nie każdy system „affective computing” będzie należeć do kategorii wysokiego ryzyka, to w obecnym przepisie kategoria ta wymaga konieczności informowania użytkownika o istnieniu takich algorytmów, wprowadzenia minimalizacji ryzyka i nadzoru ludzkiego oraz zapewnienia wysokiego -jakościowe zbiory danych, solidność i dokładność, szczegółowa dokumentacja (która może obejmować piaskownice regulacyjne).

Przejrzystość u podstaw

Dokument wprowadza także kategorię „specyficznego ryzyka przejrzystości”. Oznacza to, że korzystając z systemów AI, takich jak chatboty, użytkownicy powinni mieć świadomość, że wchodzą w interakcję z maszyną.

Treści generowane przez sztuczną inteligencję będą musiały być odpowiednio oznaczone, a użytkownicy muszą być informowani o stosowaniu systemów kategoryzacji biometrycznej lub rozpoznawania emocji. W szczególności wspomagające przypadki wykorzystania systemów rozpoznawania emocji i ekspresji mogą obejmować asystentów społecznych i robotykę lub inteligentne urządzenia wspierające zaburzenia ze spektrum autyzmu lub zaburzenia poznawcze związane z zakłóconymi emocjami, ekspresją i przetwarzaniem społecznym.

Po czwarte, ustawa o sztucznej inteligencji wprowadza dedykowane zasady dotyczące sztucznej inteligencji ogólnego przeznaczenia. Takie modele, obejmujące szerokie zastosowania tekstu, obrazu, rozpoznawania i konwersji mowy, wykrywania wzorców i mechaniki opartej na języku, mogą napędzać istniejące ekosystemy dostępności, pomocy i zakwaterowania, wymagające komunikacji lub interakcji z pacjentem lub uczniem.

Ludzie odbijający się w oknie budynku przy promenadzie w Davos z hasłem o sztucznej inteligencji podczas Światowego Forum Ekonomicznego w Davos, styczeń 2024 r.
Ludzie odbijający się w oknie budynku przy promenadzie w Davos z hasłem o sztucznej inteligencji podczas Światowego Forum Ekonomicznego w Davos, styczeń 2024 r.

Takie algorytmy mogą być wykorzystywane w różnych kontekstach społecznych i publicznych, w botach edukacyjnych lub terapii paliwowej, osobistych asystentach, narzędziach do leczenia zaburzeń poznawczych lub sensorycznych, zaburzeń ze spektrum autyzmu lub dysleksji.

Zgodnie z przepisami takie modele powinny zapewniać przejrzystość na wszystkich etapach rozwoju.

W przypadku bardzo wydajnych modeli, które mogą stwarzać ryzyko systemowe, wprowadzone zostaną dodatkowe wiążące obowiązki związane z zarządzaniem ryzykiem i monitorowaniem poważnych incydentów, przeprowadzaniem oceny modeli i testowaniem kontradyktoryjnym. Poza tym organizacje stojące za modelami dużych języków typu open source muszą ujawniać swoje dane szkoleniowe.

Wreszcie postanowienia polis wprowadzają mechanizmy kar pieniężnych i kar. Kary wahałyby się od 35 mln euro lub 7% światowego rocznego obrotu za naruszenia zakazanych aplikacji AI do 15 mln euro lub 3% za naruszenia innych obowiązków. Przewiduje się bardziej proporcjonalne górne limity kar administracyjnych dla MŚP i przedsiębiorstw typu start-up.

Równowaga między ułatwieniem a ochroną

Pomimo bardziej rygorystycznego dostosowania do poszczególnych kategorii, należy pamiętać, że topologia i mechanizm oparty na ryzyku przewidziany w unijnej ustawie o sztucznej inteligencji nie pojawia się w próżni, ale raczej rozszerza mechanizm, który był już używany i ewoluował z biegiem czasu.

W szczególności śledzi historię kryteriów oceny wykorzystywanych przez transfer technologii, MŚP i ekosystemy innowacji, takie jak „Horyzont 2020”, unijny program finansowania badań naukowych i innowacji, w ramach którego przez 7 lat dostępne będzie finansowanie w wysokości prawie 80 miliardów euro.

Komisja Europejska otrzymała odwołania i uwagi dotyczące sztucznej inteligencji i praw osób niepełnosprawnych, stosowania systemów biometrycznych, rozpoznawania twarzy i emocji, a także spraw dotyczących uchodźców i imigrantów, w tym systemów automatycznej oceny ryzyka i profilowania.

Przewodnicząca Komisji Europejskiej Ursula von der Leyen wygłasza przemówienie w Parlamencie Europejskim w Strasburgu, styczeń 2024 r.
Przewodnicząca Komisji Europejskiej Ursula von der Leyen wygłasza przemówienie w Parlamencie Europejskim w Strasburgu, styczeń 2024 r.

W takich programach jednym z kryteriów oceny wniosków było bezpieczeństwo, prywatność i wpływ.

Z biegiem czasu poszczególne programy uzupełniano innymi szczegółowymi kryteriami, uwzględniającymi wpływ społeczny i gospodarczy poszczególnych państw członkowskich, stosowane techniki ograniczania ryzyka.

Logicznie wynika to również z charakteru istniejącego prawodawstwa państw członkowskich dotyczącego danych i prywatności oraz ogólnounijnych ram, takich jak RODO, które wcześniej dotyczyły wyznaczonych grup, profilowania i systemów biometrycznych.

Poza tym od czasu przedstawienia pierwotnego wniosku w sprawie unijnej ustawy o sztucznej inteligencji w 2021 r. Komisja Europejska otrzymywała odwołania i uwagi dotyczące sztucznej inteligencji i praw osób niepełnosprawnych, stosowania systemów biometrycznych, rozpoznawania twarzy i emocji, a także spraw dotyczących uchodźców i imigrantów, w tym automatycznej oceny ryzyka i systemy profilowania. Względy te miały także wpływ na przepisy ustawy.

Społeczeństwo, zainteresowane strony, adopcja i dalsze działania

Od samego początku ustawa o sztucznej inteligencji miała na celu stać się pierwszym na świecie dokumentem wdrażającym systemy i algorytmy bardziej skupione na człowieku, zapewniając zarówno ułatwienia, jak i regulację.

Wysłało to potężny sygnał do ekosystemu technologicznego, przekazując go z czarnej skrzynki pracy ewaluatora do szerszego społeczeństwa.

Następnie wprowadzono podobne regulacje i wysiłki na arenie międzynarodowej, w tym brytyjski Szczyt Bezpieczeństwa i Deklarację Bletchley, amerykańską dyrektywę w sprawie sztucznej inteligencji, specjalne ramy opracowane przez Unesco, WHO i OECD, dotyczące dużych modeli językowych w obszarach zdrowia, edukacji, pracy i pracy, systemy publiczne, przy udziale wyspecjalizowanych instytucji, badaczy, ekspertów i zainteresowanych stron.

Ostateczny przepis ustawy został również z zadowoleniem przyjęty przez sojusz Digital MŚP, podkreślając „podejście oparte na ryzyku, które jest promowane poprzez precyzyjne, ograniczone i uznawane na arenie międzynarodowej definicje i progi”, ustanawiając piaskownice regulacyjne i możliwości testowania w świecie rzeczywistym.

Jeśli chodzi o wyznaczone grupy i szczególne kategorie technologii wspomagających, ustawa o sztucznej inteligencji nie zabrania stosowania algorytmów w tym zakresie, ale zapewnia dodatkową zgodność i wymagania.

Na obecnym etapie nie obejmuje wszystkich przypadków i scenariuszy, topologii i terminologii, ale może uzupełniać istniejące ustawodawstwo państw członkowskich, w tym przepisy dotyczące dostępności, równości czy ochrony socjalnej.

Wreszcie, aby zapewnić lepszą ochronę socjalną i dostęp dla grup bezbronnych, nieletnich lub specjalnych przypadków użycia – takich jak manipulacja platformą, niewidoczne ryzyko lub uzależniający projekt algorytmu, co również znajduje odzwierciedlenie w art. 5 ust. 1 ustawy o sztucznej inteligencji – można ją uzupełnić przepisami niezwiązanymi z sztuczną inteligencją takie jak ustawa o dostępności, poszczególne artykuły ustawy o usługach cyfrowych, specjalne dyrektywy i wytyczne.