Jak piszą Kai Zenner i Cornelia Kutterer, wiedza i wizja (wiceprzewodniczących) odegrają kluczową rolę w ustalaniu przyszłych zasad GPAI i zapewnieniu, że europejska droga do wiarygodności ekosystemu AI przetrwa.
W ciągu najbliższych trzech tygodni Biuro ds. Sztucznej Inteligencji prawdopodobnie wyznaczy jedną ważną grupę osób zewnętrznych, które będą kształtować wdrażanie kluczowej części ustawy UE o sztucznej inteligencji: przewodniczących i wiceprzewodniczących Kodeksu dobrych praktyk w zakresie modeli sztucznej inteligencji ogólnego przeznaczenia (GPAI).
Na początek kilka słów o tle historycznym: rozwój generatywnej sztucznej inteligencji (AI) — w tym popularnych aplikacji, takich jak ChatGPT firmy OpenAI — nie tylko wywołał rewolucję w gospodarce, ale także wywołał polityczne emocje pod koniec negocjacji trójstronnych dotyczących ustawy o sztucznej inteligencji.
Państwa członkowskie, takie jak Francja, Niemcy i Włochy, obawiały się, że interwencja regulacyjna u podstaw technologii sztucznej inteligencji jest przedwczesna i ograniczy rozwój unijnych start-upów, takich jak Mistral czy Aleph Alpha, chociaż — jak można sobie przypomnieć — Francja zdołała kilka razy zmienić zdanie, zanim zajęła takie stanowisko.
Przeciwieństwem był Parlament Europejski. Zaniepokojony koncentracją rynku i potencjalnymi naruszeniami praw podstawowych zaproponował kompleksowe ramy prawne dla generatywnej AI, lub jak ochrzczono ją w ostatecznym prawie, modeli GPAI.
Mając na uwadze tak rozbieżne poglądy, współprawodawcy UE zdecydowali się na trzecią drogę, czyli podejście współregulacyjne, które określa obowiązki dostawców modeli GPAI w kodeksach i normach technicznych.
To właśnie komisarz Thierry Breton zasugerował wykorzystanie tego narzędzia, opierając się na Kodeksie postępowania w zakresie zwalczania dezinformacji z 2022 r.
Podstawowe podobieństwa kryją się za podejściem do zarządzania, co sprawia, że elastyczne kody są szczególnie odpowiednie dla bezpieczeństwa sztucznej inteligencji: szybko rozwijająca się technologia, wartości społeczno-techniczne oraz złożoność zasad dotyczących treści i decyzji o moderacji.
Nie wszyscy jednak zgodziliby się, że kodeksy są odpowiednim instrumentem regulacyjnym. Ich krytycy wskazują na ryzyko, że firmy zobowiążą się jedynie do minimum i zrobią za mało i za późno.
Takie przynajmniej wrażenie odnieśli liczni audytorzy, czytając pierwotną wersję Kodeksu postępowania UE w zakresie zwalczania dezinformacji z 2018 r.
Po przeprowadzeniu surowej analizy zespół Komisji ds. dezinformacji zmusił firmy do lepszego działania, zaprosił do dyskusji społeczeństwo obywatelskie i zmusił uczestników do wyznaczenia niezależnego naukowca, który przewodniczyłby procesowi.
Technicznie wykonalne i przyjazne dla innowacji
Dobra wiadomość jest taka — wracając do nadchodzących nominacji (wiceprzewodniczących) w połowie września — że Biuro ds. Sztucznej Inteligencji również wykorzystało to konkretne doświadczenie jako wzór dla swojego podejścia współregulacyjnego do GPAI.
W dniu 30 czerwca zaproponowano solidny system zarządzania w celu opracowania kodeksów postępowania GPAI za pośrednictwem czterech grup roboczych.
Wszyscy zainteresowani interesariusze otrzymują w ten sposób wiele szans na wniesienie wkładu i ukształtowanie ostatecznego tekstu, w szczególności poprzez konsultacje publiczne i trzy sesje plenarne. Firmy GPAI nadal będą dominować w procesie redagowania, ponieważ są zapraszane na dodatkowe warsztaty.
Nie muszą również stosować się do ostatecznych wyników, ponieważ kodeksy są dobrowolne.
Wracając do Kodeksu przeciwdziałania dezinformacji, można śmiało powiedzieć, że kryteria niezależności (wiceprzewodniczących) staną się kluczowe dla ochrony wiarygodności i właściwej równowagi w procesie opracowywania projektu.
Wyznaczone osoby będą miały duży wpływ, gdyż to one są de facto autorami tekstów i przewodniczą czterem grupom roboczym.
Jedno dodatkowe dziewiąte krzesło mogłoby nawet pełnić rolę koordynującą. Razem mogłyby dążyć do osiągnięcia właściwej równowagi między ambitnymi zasadami w świetle ryzyka systemowego, a jednocześnie zachować zobowiązania technicznie wykonalne i przyjazne dla innowacji.
Ich celem powinno być osiągnięcie Kodeksu GPAI, który odzwierciedla pragmatyczną interpretację stanu wiedzy. Aby osiągnąć najwyższą jakość, Biuro AI powinno wybierać (wice) przewodniczących według zasług: silnej wiedzy technicznej, społeczno-technicznej lub eksperckiej w zakresie zarządzania modelami GPAI w połączeniu z praktycznym doświadczeniem w zakresie prowadzenia prac komitetowych na szczeblu europejskim lub międzynarodowym.
Wybór o najwyższym znaczeniu
Proces selekcji będzie trudny. Bezpieczeństwo AI to rodząca się i rozwijająca się dziedzina badań, charakteryzująca się metodą prób i błędów.
Biuro ds. sztucznej inteligencji musi poruszać się w zróżnicowanym spektrum środowisk zawodowych, znaleźć równowagę między wieloma sprawdzonymi interesami i przestrzegać typowych dla UE zasad różnorodności krajów i płci. Jednocześnie trzeba pamiętać, że wielu czołowych ekspertów w dziedzinie bezpieczeństwa sztucznej inteligencji pochodzi spoza UE.
Oczywiście, Kodeks GPAI powinien koncentrować się na wartościach UE i ważne jest zapewnienie silnej reprezentacji UE wśród (wice)przewodniczących. Jednak biorąc pod uwagę jego globalne znaczenie i fakt, że ustawa o AI wymaga uwzględnienia podejść międzynarodowych, wielu cenionych ekspertów międzynarodowych wyraziło zainteresowanie tymi rolami.
Wygraną dla UE byłoby również mianowanie znacznej liczby uznanych na arenie międzynarodowej ekspertów na stanowiska przewodniczących lub wiceprzewodniczących. Taki krok zwiększyłby prawdopodobieństwo pomyślnego wyniku, zapewniłby legalność kodeksu w całym tekście i ułatwiłby firmom spoza UE dostosowanie się do procesu.
Podsumowując, na tym etapie niezwykle istotne jest wybranie przewodniczących (wiceprzewodniczących) Kodeksu GPAI.
Ich przywództwo wyznaczy ton, w jaki sposób ćwiczenie współregulacji będzie się rozwijać w czasie, zwłaszcza w obliczu złożonych wyzwań społeczno-technicznych i delikatnych zasad, takich jak prawa własności intelektualnej, CSAM i krytyczne progi, które określają obowiązki, którym będą musiały sprostać poszczególne modele GPAI.
Wiedza i wizja (wiceprzewodniczących) będą miały kluczowe znaczenie dla ustalenia przyszłych zasad GPAI i zagwarantowania, że europejska droga do wiarygodności ekosystemu AI przetrwa.