Sztandarowe prawodawstwo UE dotyczące sztucznej inteligencji nie obejmuje wszystkich przypadków, scenariuszy ani terminologii, ale może uzupełniać istniejące ustawodawstwo państw członkowskich, w tym przepisy dotyczące dostępności, równości czy ochrony socjalnej – pisze Yonah Welker.
8 grudnia negocjatorzy Parlamentu Europejskiego i Rady Europejskiej osiągnęli wstępne porozumienie w sprawie ustawy o sztucznej inteligencji.
Tekst, który wyłonił się z rozmów trójstronnych, musiał zostać poddany pod głosowanie w Parlamencie Europejskim, a także w Radzie Europejskiej.
Aby osiągnięty kompromis polityczny stał się obowiązującym prawem, konieczna była zgoda obu instytucji. W zeszłym tygodniu ostateczny tekst ustawy o sztucznej inteligencji został udostępniony państwom członkowskim. Następnie do piątku Techniczna Grupa Robocza i państwa członkowskie przedstawią swoje uwagi.
W odpowiedzi na poprzednie uwagi państw członkowskich, takich jak Francja, w ostatecznym tekście pozostawiono pytania opinii publicznej dotyczące wpływu tego rozporządzenia na MŚP, innowacje i mechanizmy transferu technologii w regionie.
W szczególności, oprócz szeroko omawianych modeli podstawowych, wiadomo, że ekosystem UE generuje wiele udanych projektów technologicznych dotyczących dostępności przestrzeni publicznych, zaburzeń poznawczych i sensorycznych, technologii medycznych i edukacyjnych, takich jak robotyka społeczna dla dzieci z autyzmem, problemy ze wzrokiem systemy śledzące wspierające trudności w czytaniu i dysleksję, inteligentne tablety dla osób z wadą wzroku, różnorodność technologii rehabilitacyjnych i medycznych.
Technologie te wiążą się z wykorzystaniem rozpoznawania emocji, śledzenia wzroku i wprowadzania złożonych danych od kilku interesariuszy.
W listopadzie OECD opublikowało raport i repozytorium obejmujące ponad sto przypadków technologii wspomagających, technologii pracy i miejsca pracy, wspierających niepełnosprawność za pomocą sztucznej inteligencji.
Ostateczny przepis ustawy o sztucznej inteligencji rozszerza kategorie systemów wysokiego i niedopuszczalnego ryzyka, wprowadza bardziej rygorystyczne przepisy dotyczące rozpoznawania emocji, publicznie dostępnych miejsc pracy i przestrzeni edukacyjnych, specjalne zasady dotyczące sztucznej inteligencji ogólnego przeznaczenia, „szczególnych zagrożeń związanych z przejrzystością” oraz wykaz specjalnych przypadki, wyjątki i uwagi, w tym systemy biometryczne i organy ścigania.
W jaki sposób zasady te mogą równoważyć ułatwianie i ochronę powstających systemów i transferu technologii, szczególnie w odniesieniu do algorytmów wspomagających i publicznych, powiązanych z wyznaczonymi grupami i złożonymi procesami wdrażania?
Przepisy, klasyfikacje i algorytmy
Przez pryzmat kategorii i algorytmów wspomagających, dostępnościowych i społecznych należy wyróżnić kilka elementów zapisów ustawy o sztucznej inteligencji:
Po pierwsze, wraz z aplikacjami mogącymi manipulować ludzkimi zachowaniami, rządową „punktacją społeczną” i niektórymi zastosowaniami policji predykcyjnej, wprowadza ona całkowity zakaz stosowania określonych publicznych i działających w czasie rzeczywistym przypadków systemów biometrii i rozpoznawania emocji.
W szczególności zabrania stosowania rozpoznawania emocji w czterech sprawach publicznych: w miejscach pracy i placówkach oświatowych, w egzekwowaniu prawa oraz w migracji.
Zabrania także systemów mających na celu kategoryzację lub „ocenę” osób, w tym zdalną identyfikację biometryczną w czasie rzeczywistym do celów egzekwowania prawa w przestrzeniach publicznie dostępnych (z wyjątkiem „wyczerpująco wymienionych i wąsko zdefiniowanych sytuacji”).
Po drugie, niedawny przepis przenosi także ogólne przypadki „identyfikacji lub wnioskowania o emocjach lub zamiarach osób fizycznych na podstawie ich danych biometrycznych” do kategorii „wysokiego ryzyka”, która obejmuje również systemy związane z określoną infrastrukturą krytyczną, wyrobami medycznymi, systemami określania dostępu do instytucji edukacyjnych lub rekrutacji pracowników, egzekwowania prawa i wymiaru sprawiedliwości.
I choć nie każdy system „affective computing” będzie należeć do kategorii wysokiego ryzyka, to w obecnym przepisie kategoria ta wymaga konieczności informowania użytkownika o istnieniu takich algorytmów, wprowadzenia minimalizacji ryzyka i nadzoru ludzkiego oraz zapewnienia wysokiego -jakościowe zbiory danych, solidność i dokładność, szczegółowa dokumentacja (która może obejmować piaskownice regulacyjne).
Przejrzystość u podstaw
Dokument wprowadza także kategorię „specyficznego ryzyka przejrzystości”. Oznacza to, że korzystając z systemów AI, takich jak chatboty, użytkownicy powinni mieć świadomość, że wchodzą w interakcję z maszyną.
Treści generowane przez sztuczną inteligencję będą musiały być odpowiednio oznaczone, a użytkownicy muszą być informowani o stosowaniu systemów kategoryzacji biometrycznej lub rozpoznawania emocji. W szczególności wspomagające przypadki wykorzystania systemów rozpoznawania emocji i ekspresji mogą obejmować asystentów społecznych i robotykę lub inteligentne urządzenia wspierające zaburzenia ze spektrum autyzmu lub zaburzenia poznawcze związane z zakłóconymi emocjami, ekspresją i przetwarzaniem społecznym.
Po czwarte, ustawa o sztucznej inteligencji wprowadza dedykowane zasady dotyczące sztucznej inteligencji ogólnego przeznaczenia. Takie modele, obejmujące szerokie zastosowania tekstu, obrazu, rozpoznawania i konwersji mowy, wykrywania wzorców i mechaniki opartej na języku, mogą napędzać istniejące ekosystemy dostępności, pomocy i zakwaterowania, wymagające komunikacji lub interakcji z pacjentem lub uczniem.
Takie algorytmy mogą być wykorzystywane w różnych kontekstach społecznych i publicznych, w botach edukacyjnych lub terapii paliwowej, osobistych asystentach, narzędziach do leczenia zaburzeń poznawczych lub sensorycznych, zaburzeń ze spektrum autyzmu lub dysleksji.
Zgodnie z przepisami takie modele powinny zapewniać przejrzystość na wszystkich etapach rozwoju.
W przypadku bardzo wydajnych modeli, które mogą stwarzać ryzyko systemowe, wprowadzone zostaną dodatkowe wiążące obowiązki związane z zarządzaniem ryzykiem i monitorowaniem poważnych incydentów, przeprowadzaniem oceny modeli i testowaniem kontradyktoryjnym. Poza tym organizacje stojące za modelami dużych języków typu open source muszą ujawniać swoje dane szkoleniowe.
Wreszcie postanowienia polis wprowadzają mechanizmy kar pieniężnych i kar. Kary wahałyby się od 35 mln euro lub 7% światowego rocznego obrotu za naruszenia zakazanych aplikacji AI do 15 mln euro lub 3% za naruszenia innych obowiązków. Przewiduje się bardziej proporcjonalne górne limity kar administracyjnych dla MŚP i przedsiębiorstw typu start-up.
Równowaga między ułatwieniem a ochroną
Pomimo bardziej rygorystycznego dostosowania do poszczególnych kategorii, należy pamiętać, że topologia i mechanizm oparty na ryzyku przewidziany w unijnej ustawie o sztucznej inteligencji nie pojawia się w próżni, ale raczej rozszerza mechanizm, który był już używany i ewoluował z biegiem czasu.
W szczególności śledzi historię kryteriów oceny wykorzystywanych przez transfer technologii, MŚP i ekosystemy innowacji, takie jak „Horyzont 2020”, unijny program finansowania badań naukowych i innowacji, w ramach którego przez 7 lat dostępne będzie finansowanie w wysokości prawie 80 miliardów euro.
W takich programach jednym z kryteriów oceny wniosków było bezpieczeństwo, prywatność i wpływ.
Z biegiem czasu poszczególne programy uzupełniano innymi szczegółowymi kryteriami, uwzględniającymi wpływ społeczny i gospodarczy poszczególnych państw członkowskich, stosowane techniki ograniczania ryzyka.
Logicznie wynika to również z charakteru istniejącego prawodawstwa państw członkowskich dotyczącego danych i prywatności oraz ogólnounijnych ram, takich jak RODO, które wcześniej dotyczyły wyznaczonych grup, profilowania i systemów biometrycznych.
Poza tym od czasu przedstawienia pierwotnego wniosku w sprawie unijnej ustawy o sztucznej inteligencji w 2021 r. Komisja Europejska otrzymywała odwołania i uwagi dotyczące sztucznej inteligencji i praw osób niepełnosprawnych, stosowania systemów biometrycznych, rozpoznawania twarzy i emocji, a także spraw dotyczących uchodźców i imigrantów, w tym automatycznej oceny ryzyka i systemy profilowania. Względy te miały także wpływ na przepisy ustawy.
Społeczeństwo, zainteresowane strony, adopcja i dalsze działania
Od samego początku ustawa o sztucznej inteligencji miała na celu stać się pierwszym na świecie dokumentem wdrażającym systemy i algorytmy bardziej skupione na człowieku, zapewniając zarówno ułatwienia, jak i regulację.
Wysłało to potężny sygnał do ekosystemu technologicznego, przekazując go z czarnej skrzynki pracy ewaluatora do szerszego społeczeństwa.
Następnie wprowadzono podobne regulacje i wysiłki na arenie międzynarodowej, w tym brytyjski Szczyt Bezpieczeństwa i Deklarację Bletchley, amerykańską dyrektywę w sprawie sztucznej inteligencji, specjalne ramy opracowane przez Unesco, WHO i OECD, dotyczące dużych modeli językowych w obszarach zdrowia, edukacji, pracy i pracy, systemy publiczne, przy udziale wyspecjalizowanych instytucji, badaczy, ekspertów i zainteresowanych stron.
Ostateczny przepis ustawy został również z zadowoleniem przyjęty przez sojusz Digital MŚP, podkreślając „podejście oparte na ryzyku, które jest promowane poprzez precyzyjne, ograniczone i uznawane na arenie międzynarodowej definicje i progi”, ustanawiając piaskownice regulacyjne i możliwości testowania w świecie rzeczywistym.
Jeśli chodzi o wyznaczone grupy i szczególne kategorie technologii wspomagających, ustawa o sztucznej inteligencji nie zabrania stosowania algorytmów w tym zakresie, ale zapewnia dodatkową zgodność i wymagania.
Na obecnym etapie nie obejmuje wszystkich przypadków i scenariuszy, topologii i terminologii, ale może uzupełniać istniejące ustawodawstwo państw członkowskich, w tym przepisy dotyczące dostępności, równości czy ochrony socjalnej.
Wreszcie, aby zapewnić lepszą ochronę socjalną i dostęp dla grup bezbronnych, nieletnich lub specjalnych przypadków użycia – takich jak manipulacja platformą, niewidoczne ryzyko lub uzależniający projekt algorytmu, co również znajduje odzwierciedlenie w art. 5 ust. 1 ustawy o sztucznej inteligencji – można ją uzupełnić przepisami niezwiązanymi z sztuczną inteligencją takie jak ustawa o dostępności, poszczególne artykuły ustawy o usługach cyfrowych, specjalne dyrektywy i wytyczne.