Meta, OpenAI, TikTok, Microsoft i Amazon znalazły się wśród sygnatariuszy porozumienia na Konferencji Bezpieczeństwa w Monachium. Zapisał się także X Elona Muska.
Największe firmy technologiczne podpisały w piątek pakt o dobrowolnym przyjęciu „rozsądnych środków ostrożności”, aby zapobiec wykorzystywaniu narzędzi sztucznej inteligencji (AI) do zakłócania demokratycznych wyborów na całym świecie.
Dyrektorzy firm Adobe, Amazon, Google, IBM, Meta, Microsoft, OpenAI i TikTok zebrali się na Konferencji Bezpieczeństwa w Monachium, aby ogłosić nowe ramy reagowania na generowane przez sztuczną inteligencję deepfake, które celowo oszukują wyborców.
Pod porozumieniem podpisało się także dwanaście innych firm, w tym X Elona Muska.
„Wszyscy zdają sobie sprawę, że żadna firma technologiczna, żaden rząd, żadna organizacja społeczeństwa obywatelskiego nie jest w stanie samodzielnie poradzić sobie z pojawieniem się tej technologii i jej możliwym nikczemnym wykorzystaniem” – powiedział Nick Clegg, prezes ds. spraw globalnych w firmie Meta, firmie spółka matka Facebooka i Instagrama w wywiadzie przed szczytem.
Porozumienie ma w dużej mierze charakter symboliczny, ale jego celem są coraz bardziej realistyczne obrazy, nagrania audio i wideo generowane przez sztuczną inteligencję, „które w zwodniczy sposób fałszują lub zmieniają wygląd, głos lub działania kandydatów politycznych, urzędników wyborczych i innych kluczowych stron zainteresowanych demokratycznymi wyborami lub które dostarczać wyborcom fałszywych informacji o tym, kiedy, gdzie i jak mogą zgodnie z prawem głosować”.
Firmy nie zobowiązują się do zakazywania lub usuwania deepfakes. Zamiast tego w porozumieniu określono metody, których będą używać do wykrywania i oznaczania zwodniczych treści AI, gdy są one tworzone lub rozpowszechniane na ich platformach.
Zauważa, że firmy będą dzielić się najlepszymi praktykami i zapewniać „szybkie i proporcjonalne reakcje”, gdy treści te zaczną się rozprzestrzeniać.
Brak wiążących wymagań
Niejasność zobowiązań i brak jakichkolwiek wiążących wymogów prawdopodobnie pomogły pozyskać różnorodne przedsiębiorstwa, ale rozczarowani zwolennicy szukali silniejszych gwarancji.
„Język nie jest tak mocny, jak można by się spodziewać” – stwierdziła Rachel Orey, starsza dyrektor ds. projektu wyborczego w Dwupartyjnym Centrum Politycznym.
„Uważam, że powinniśmy udzielać kredytu tam, gdzie jest on należny i przyznać, że przedsiębiorstwa mają żywotny interes w tym, aby ich narzędzia nie były wykorzystywane do podważania wolnych i uczciwych wyborów. To powiedziawszy, jest to dobrowolne i będziemy zwracać uwagę od tego, czy podążają”.
Clegg powiedział, że każda firma „całkiem słusznie ma swój własny zestaw zasad dotyczących treści”.
„To nie jest próba narzucenia każdemu kaftana bezpieczeństwa” – powiedział.
„A w każdym razie nikt w branży nie myśli, że można poradzić sobie z zupełnie nowym paradygmatem technologicznym, zamiatając wszystko pod dywan, bawiąc się w walnięcie kretem i znajdując wszystko, co Twoim zdaniem może kogoś wprowadzić w błąd”.
Do piątkowego ogłoszenia dołączyło także kilku przywódców politycznych z Europy i USA. Wiceprzewodnicząca Komisji Europejskiej Vera Jourova stwierdziła, że chociaż takie porozumienie nie może być kompleksowe, „zawiera elementy bardzo wpływowe i pozytywne”.
Nalegała również, aby inni politycy wzięli na siebie odpowiedzialność i nie używali narzędzi sztucznej inteligencji w zwodniczy sposób i ostrzegła, że dezinformacja napędzana sztuczną inteligencją może doprowadzić do „końca demokracji nie tylko w państwach członkowskich UE”.
Ingerencja w wybory AI już trwa
Porozumienie na corocznym spotkaniu dotyczącym bezpieczeństwa w niemieckim mieście następuje w związku z planowanymi w 2024 r. w ponad 50 krajach wyborami krajowymi. Bangladesz, Tajwan, Pakistan, a ostatnio Indonezja już to zrobiły.
Próby ingerencji w wybory generowane przez sztuczną inteligencję już się rozpoczęły, na przykład gdy w zeszłym miesiącu automatyczne połączenia telefoniczne AI naśladujące głos prezydenta USA Joe Bidena próbowały zniechęcić ludzi do głosowania w prawyborach w New Hampshire.
Na kilka dni przed listopadowymi wyborami na Słowacji wygenerowane przez sztuczną inteligencję nagrania audio podszywały się pod kandydata omawiającego plany podniesienia cen piwa i sfałszowania wyborów. W miarę rozpowszechniania się w mediach społecznościowych weryfikatorzy faktów starali się zidentyfikować je jako fałszywe.
Politycy również eksperymentowali z tą technologią, począwszy od wykorzystywania chatbotów AI do komunikacji z wyborcami po dodawanie do reklam obrazów generowanych przez sztuczną inteligencję.
W porozumieniu wzywa się platformy do „zwracania uwagi na kontekst, a w szczególności na ochronę ekspresji edukacyjnej, dokumentalnej, artystycznej, satyrycznej i politycznej”.
Stwierdzono, że firmy skoncentrują się na zapewnieniu użytkownikom przejrzystości w zakresie swoich zasad i będą pracować nad edukacją społeczeństwa na temat tego, w jaki sposób mogą uniknąć nabrania się na podróbki sztucznej inteligencji.
Większość firm już wcześniej informowała, że wprowadza zabezpieczenia na własne narzędzia generatywnej sztucznej inteligencji, które mogą manipulować obrazami i dźwiękiem, jednocześnie pracując nad identyfikacją i etykietowaniem treści generowanych przez sztuczną inteligencję, aby użytkownicy mediów społecznościowych wiedzieli, czy to, co widzą, jest prawdziwe. Jednak większość proponowanych rozwiązań nie została jeszcze wdrożona, a firmy znalazły się pod presją, aby zrobić więcej.
Presja ta jest zwiększona w USA, gdzie Kongres nie przyjął jeszcze przepisów regulujących sztuczną inteligencję w polityce, pozostawiając firmom w dużej mierze samodzielne rządzenie.
Federalna Komisja Łączności potwierdziła niedawno, że klipy audio generowane przez sztuczną inteligencję w automatycznych połączeniach telefonicznych są niezgodne z prawem, ale nie obejmuje to fałszywych dźwięków krążących w mediach społecznościowych lub w reklamach kampanii.
Wiele firm zajmujących się mediami społecznościowymi ma już zasady mające na celu powstrzymywanie zwodniczych postów na temat procesów wyborczych – niezależnie od tego, czy są one generowane przez sztuczną inteligencję, czy nie.
Meta twierdzi, że usuwa dezinformację na temat „dat, miejsc, godzin i metod głosowania, rejestracji wyborców lub udziału w spisie powszechnym”, a także inne fałszywe posty mające na celu zakłócanie czyjegoś udziału w życiu obywatelskim.
Nieobecni na porozumieniu
Jeff Allen, współzałożyciel Integrity Institute i były analityk danych Facebooka, powiedział, że porozumienie wydaje się „pozytywnym krokiem”, ale nadal chciałby, aby firmy z branży mediów społecznościowych podejmowały inne działania w celu zwalczania dezinformacji, takie jak tworzenie rekomendacji treści systemów, które nie stawiają zaangażowania ponad wszystko.
Lisa Gilbert, wiceprezes grupy rzeczników Public Citizen, argumentowała w piątek, że porozumienie to „nie wystarczy” i firmy zajmujące się sztuczną inteligencją powinny „wstrzymywać się od technologii”, takich jak hiperrealistyczne generatory tekstu na wideo, „do czasu pojawienia się znacznych i odpowiednie zabezpieczenia, które pomogą nam uniknąć wielu potencjalnych problemów”.
Oprócz firm, które pomogły w zawarciu piątkowego porozumienia, innymi sygnatariuszami są twórcy chatbotów Anthropic i Inflection AI; startup klonujący głos ElevenLabs; projektant chipów Arm Holdings; firmy zajmujące się bezpieczeństwem McAfee i TrendMicro; oraz Stability AI, znane z tworzenia generatora obrazu Stable Diffusion.
Szczególnie nieobecny jest inny popularny generator obrazów AI, Midjourney. Startup z siedzibą w San Francisco nie odpowiedział w piątek od razu na prośbę o komentarz.
Włączenie X – o którym nie wspomniano we wcześniejszym komunikacie o oczekującym porozumieniu – było jedną z niespodzianek piątkowego porozumienia.
Po przejęciu dawnego Twittera Musk ostro ograniczył zespoły zajmujące się moderacją treści i określił siebie jako „absolutystę wolności słowa”.
W piątkowym oświadczeniu dyrektor generalna X Linda Yaccarino stwierdziła, że „każdy obywatel i firma ma obowiązek chronić wolne i uczciwe wybory”.
„X stara się odgrywać swoją rolę, współpracując z innymi osobami w celu zwalczania zagrożeń związanych ze sztuczną inteligencją, a jednocześnie chroniąc wolność słowa i maksymalizując przejrzystość” – powiedziała.