O nas
Kontakt

Twórca ChatGPT, OpenAI, przedstawia plan zapobiegania dezinformacji wyborczej

Laura Kowalczyk

OpenAI CEO Sam Altman speaks before a Senate Judiciary Subcommittee on Privacy, Technology and the Law hearing on artificial intelligence, May 16, 2023.

Oto, jak twórca ChatGPT, OpenAI, planuje zapobiegać dezinformacji wyborczej w 2024 r.

Twórca ChatGPT, firma OpenAI, nakreśliła plan zapobiegania wykorzystywaniu jego narzędzi do rozpowszechniania dezinformacji wyborczych, gdy wyborcy w ponad 50 krajach przygotowują się do oddania głosu w tegorocznych wyborach krajowych.

Zabezpieczenia opisane w tym tygodniu na blogu przez start-up zajmujący się sztuczną inteligencją (AI) z siedzibą w San Francisco obejmują połączenie istniejących zasad i nowszych inicjatyw mających na celu zapobieganie niewłaściwemu wykorzystaniu niezwykle popularnych narzędzi generatywnej sztucznej inteligencji.

Potrafią w ciągu kilku sekund stworzyć nowatorski tekst i obrazy, ale można je także wykorzystać do wymyślania wprowadzających w błąd komunikatów lub przekonujących fałszywych zdjęć.

Kroki te będą miały zastosowanie w szczególności do OpenAI, jedynego gracza w rozszerzającym się świecie firm opracowujących zaawansowane narzędzia generatywnej sztucznej inteligencji.

Firma, która ogłosiła te posunięcia w poniedziałek, oświadczyła, że ​​planuje „kontynuować prace nad bezpieczeństwem platformy poprzez podnoszenie dokładnych informacji o głosowaniu, egzekwowanie wyważonych zasad i poprawę przejrzystości”.

Oznajmiła, że ​​zakaże ludziom korzystania z jej technologii do tworzenia chatbotów podszywających się pod prawdziwych kandydatów lub rządy, w celu fałszywego przedstawiania sposobu głosowania lub zniechęcania ludzi do głosowania. Stwierdzono, że dopóki nie zostaną przeprowadzone dalsze badania nad siłą perswazji jej technologii, nie umożliwi ona użytkownikom tworzenia aplikacji do celów kampanii politycznych lub lobbingu.

OpenAI twierdzi, że „począwszy od początku tego roku” będzie cyfrowo znakować wodnymi obrazy AI utworzone za pomocą generatora obrazów DALL-E. Spowoduje to trwałe oznaczenie treści informacją o jej pochodzeniu, co ułatwi identyfikację, czy obraz pojawiający się w innym miejscu sieci został stworzony przy użyciu narzędzia AI.

Firma oświadczyła również, że współpracuje z Krajowym Stowarzyszeniem Sekretarzy Stanu, aby kierować użytkowników ChatGPT zadających pytania logistyczne dotyczące głosowania w celu uzyskania dokładnych informacji na bezstronnej stronie internetowej tej grupy, CanIVote.org.

Mekela Panditharatne, doradczyni ds. programu demokracji w Brennan Center for Justice, powiedziała, że ​​plany OpenAI stanowią pozytywny krok w kierunku zwalczania dezinformacji wyborczej, ale będzie to zależeć od tego, jak zostaną wdrożone.

„Na przykład, jak wyczerpujące i wszechstronne będą filtry przy oznaczaniu pytań dotyczących procesu wyborczego?” zapytała. „Czy będą przedmioty, które prześlizgną się przez szczeliny?”

ChatGPT i DALL-E OpenAI to jedne z najpotężniejszych dotychczas narzędzi generatywnej sztucznej inteligencji. Istnieje jednak wiele firm dysponujących podobnie zaawansowaną technologią, które nie posiadają tak wielu zabezpieczeń przed dezinformacją podczas wyborów.

Chociaż niektóre firmy z branży mediów społecznościowych, takie jak YouTube i Meta, wprowadziły zasady oznaczania sztucznej inteligencji, okaże się, czy będą w stanie konsekwentnie łapać osoby naruszające zasady.

„Pomocne byłoby, gdyby inne firmy zajmujące się generatywną sztuczną inteligencją przyjęły podobne wytyczne, aby można było egzekwować praktyczne zasady w całej branży” – powiedział Darrell West, starszy pracownik Centrum Innowacji Technologicznych w Brooking Institution.

Bez dobrowolnego przyjęcia takich polityk w całej branży uregulowanie dezinformacji generowanej przez sztuczną inteligencję w polityce wymagałoby ustawodawstwa. W Stanach Zjednoczonych Kongres nie przyjął jeszcze przepisów regulujących rolę branży w polityce, pomimo pewnego poparcia obu partii. Tymczasem ponad jedna trzecia stanów USA przyjęła lub wprowadziła ustawy mające na celu rozwiązanie problemu deepfake’ów w kampaniach politycznych w obliczu utknięcia w ustawodawstwie federalnym.

Dyrektor generalny OpenAI Sam Altman powiedział, że nawet przy zastosowaniu wszystkich zabezpieczeń w jego firmie nie jest spokojny.

„Myślę, że to dobrze, że mamy wiele obaw i zrobimy wszystko, co w naszej mocy, aby wszystko było jak najlepiej” – powiedział podczas wtorkowego wywiadu podczas wydarzenia Bloomberg podczas Światowego Forum Ekonomicznego w Davos w Szwajcarii.

„Będziemy musieli w tym roku przyjrzeć się temu niezwykle uważnie. Bardzo ścisłe monitorowanie. Super ścisła pętla sprzężenia zwrotnego.”