O nas
Kontakt

AI, Inc. nagina swoje zasady wyborcze w dobrej wierze i poluje na klientów

Laura Kowalczyk

AI, Inc. nagina swoje zasady wyborcze w dobrej wierze i poluje na klientów

LONDYN — Siedząc w wyjątkowo ciepłym parku w stolicy Wielkiej Brytanii, Hannah O'Rourke wyróżnia się jako zwolenniczka sztucznej inteligencji.

Trzydziestoletnia aktywistka spędziła większość swojej początków swojej kariery na opowiadaniu się za większymi prawami pracowników, a nawet lobbowała rząd brytyjski w imieniu studentów podczas pandemii Covid-19.

Jednak przed wyborami powszechnymi w Wielkiej Brytanii – które mają się odbyć jesienią – O'Rourke wykorzystuje swojego wewnętrznego brata z branży technologicznej.

Podczas comiesięcznych hackatonów O'Rourke i inni postępowi informatycy z CampaignLab, organizacji non-profit, której jest współzałożycielką, stworzyli chatbota opartego na sztucznej inteligencji. Zaprojektowany z myślą o różnych osobowościach i różnych emocjach, pomaga wolontariuszom nauczyć się, jak najlepiej współdziałać z potencjalnie sceptycznymi wyborcami na szlaku kampanii.

Inny projekt oparty na crowdsourcingu wykorzystywał narzędzia sztucznej inteligencji do śledzenia dyskusji politycznych na TikToku. Trzecia wykorzystała gotową technologię sztucznej inteligencji, aby pomóc zdezorientowanym wyborcom rozszyfrować labirynt strony internetowej krajowej komisji wyborczej.

„Istnieje kilka interesujących, kreatywnych rozwiązań w zakresie sztucznej inteligencji, które mogą pomóc ludziom lepiej radzić sobie na przykład w kampaniach” – powiedział O'Rourke przy kawie w zeszłym miesiącu w upalny wiosenny dzień w południowym Londynie – podczas gdy dzieci śmieją się na pobliskim placu zabaw, a osoby dojeżdżające do pracy piją drinka w drodze do domu z pracy.

„Ostatecznie ludzie, którzy chcą robić złe rzeczy, będą korzystać ze sztucznej inteligencji” – dodała. „Pytanie brzmi zatem: w jaki sposób my, ludzie, którzy chcą robić dobre rzeczy, możemy używać tego narzędzia w sposób zgodny z tym, co uważamy za słuszne?”

O'Rourke nie jest sam. Pośród szumu wokół sztucznej inteligencji, który nabrał rozpędu pod koniec 2022 r., kiedy OpenAI wypuściło na świat ChatGPT, działacze, naukowcy i prywatne firmy szybko wskoczyli w modę kolejnej wielkiej rzeczy w technologii.

Dotyczy to także tych, którzy chcą zyskać przewagę w planowanej na ten rok ogromnej liczbie wyborów – od tych w Bangladeszu i Pakistanie na początku 2024 r., przez głosowanie w Parlamencie Europejskim w czerwcu, aż po listopadowe wybory prezydenckie w Stanach Zjednoczonych. Inni chcą zmodernizować narzędzia AI, aby wykrywać potencjalne szkody wyborcze.

Podobnie jak dziesięć lat temu, kiedy kampanie napędzane falą mediów społecznościowych miały na celu bezpośrednie komunikowanie się z wyborcami, w dobie sztucznej inteligencji agenci polityczni zwracają się do chatbotów, automatycznych narzędzi do kierowania do wyborców i innych czarów opartych na sztucznej inteligencji, aby uzyskać potencjalną przewagę w wyborach w 2024 r.

W Pakistanie uwięziony były przywódca Imran Khan poprowadził wybory krajowe za pomocą przemówień w kampanii i filmów wykorzystujących generatywne narzędzia sztucznej inteligencji. W Indonezji były szef armii i domniemany zbrodniarz wojenny Prabowo Subianto stworzył wygenerowaną przez sztuczną inteligencję kreskówkę przedstawiającą siebie w ramach rebrandingu na drodze do wygrania lutowych wyborów prezydenckich w kraju.

W Indiach urzędujący premier Narendra Modi zwrócił się do sztucznej inteligencji, aby automatycznie przetłumaczyła jego przemówienia na wiele lokalnych języków podczas trwającego w tym kraju głosowania. Na Białorusi opozycja poparła awatara sztucznej inteligencji, udającego kandydata w lutowych wyborach, który miałby odpowiadać na pytania polityczne obywateli bez obawy przed karą więzienia.

Nie wszystko to wypali.

Dostawcy komercyjni poszukujący nowych rynków chętnie udostępniają swoje nieprzetestowane produkty w kampaniach skierowanych do analfabetów technicznych, często zachwyconych obietnicami tego, co może im zaoferować sztuczna inteligencja. Inne firmy zmieniły nazwę wieloletnich praktyk kampanii – takich jak kierowanie reklam do osób w mediach społecznościowych w oparciu o ich osobiste zainteresowania lub wykorzystywanie danych do rozszyfrowania intencji wyborców – na nowomodne usługi sztucznej inteligencji w nadziei, że staną się bogate.

Nawet działacze tacy jak O'Rourke przyznają, że politycy w pośpiechu, aby nadążać za najnowszymi trendami, muszą uważać, aby nie polegać zbytnio na technologii, która może oferować zbyt wiele lub nie przynosić oczekiwanych rezultatów zwykłym obywatelom.

„Każdy sprzedawca zawsze stara się znaleźć jakąś przewagę, kolejną nowość” – powiedziała Katie Harbarth, była doradczyni Partii Republikańskiej, która później pracując dla Facebooka pomogła edukować prawodawców na temat potencjału kampanii w sieci mediów społecznościowych podczas wcześniejszych wyborów szał technologiczny.

„Problem kampanii polega na tym, że nie wiedzą, kto dostarcza olej wężowy i kto ma prawdziwą ofertę” – dodała.

Kiedy Randy Saaf i Octavio Herrera próbują sprzedać swoje oprogramowanie, kierują się podstawową zasadą: tworzą oparty na sztucznej inteligencji klon głosu potencjalnego klienta.

Na początku XXI wieku obaj technicy zaczęli pomagać wytwórniom muzycznym w powstrzymywaniu firm takich jak Napster, usługi udostępniania muzyki, która stała się sławna w epoce dot-comów, przed piractwem ich treści. Kiedy jednak pod koniec 2022 r. ChatGPT szturmem podbiła wyobraźnię opinii publicznej, zespół z Kalifornii wyczuł szansę.

W ciągu kilku miesięcy stworzyli narzędzie znane jako Wolfsbane AI, które osadzało cyfrowe znaczniki w treściach audio i wideo, uniemożliwiając klonowanie takich materiałów za pomocą sztucznej inteligencji. Użytkownicy mogą przesyłać treści na platformę startupu, chroniąc klipy audio i wideo przed potencjalnymi szkodami.

„Stworzyliśmy go dla branży rozrywkowej, ale szybko zdaliśmy sobie sprawę, że jest to główny problem bezpieczeństwa deepfakes” – Saaf powiedział TylkoGliwice za pośrednictwem łącza Zoom ze swojego domowego biura w Los Angeles. „Wtedy zaczęliśmy interesować się kontaktem z osobistościami politycznymi”.

Jak dotąd Saaf i Herrera pozyskali tylko jednego prawodawcę, amerykańskiego przedstawiciela Demokratów Erica Swalwella – Kalifornijczyka zasiadającego w komisjach ds. ojczyzny i sądownictwa Izby Reprezentantów.

W grudniu obaj usłyszeli, jak mówił o zagrożeniu, jakie sztuczna inteligencja stanowi dla bezpieczeństwa wyborów, i następnego dnia zadzwonili do jego biura. Na początku kwietnia ich firma zaczęła chronić treści Swalwell w mediach społecznościowych przed zagrożeniami ze strony deepfakes generowanych przez sztuczną inteligencję. (Ani Saaf, ani Herrera nie ujawnili kosztów usługi AI.)

Herrera, współzałożyciel Saafa, realistycznie ocenia trudne wyzwanie, jakie przed nimi stoi – nawet jeśli na finansowanie kampanii w samych Stanach Zjednoczonych przed listopadowymi wyborami przeznaczono już potencjalnie miliardy dolarów. Dodał, że propozycja często obejmuje kpinę z szybkiego klona głosu prawodawcy, pokazanie, w jaki sposób dana technologia może odeprzeć takie wysiłki, a następnie szybkie zwrócenie się do pracowników bardziej znających się na technologiach, aby ustalić szczegóły.

„To może zająć miesiące” – przyznał – „i, niestety, wybory zbliżają się szybko”.

Po drugiej stronie Atlantyku podobny problem ma mieszkająca w Wilnie Simona Vasytė-Kudakauskė.

Jako szefowa Perfection42, butikowej firmy konsultingowej wykorzystującej tzw. duże modele językowe do tworzenia tysięcy treści generowanych przez sztuczną inteligencję dla agencji reklamowych i marek na całym świecie, Vasytė-Kudakauskė chce również wykorzystać potencjał tej technologii w kampaniach politycznych.

Choć wielu skupiało się na zagrożeniach – fałszywych informacjach polityków i atakowaniu wyborców za pomocą algorytmów – ona twierdzi, że taką taktykę można również zastosować, aby lepiej dotrzeć do potencjalnych wyborców. W takim świecie, dodaje Vasytė-Kudakauskė, sztuczna inteligencja może automatycznie tłumaczyć cyfrowe materiały kampanii na wiele języków; szybko generuj obrazy polityczne za grosze za dolara; a nawet dostosowują konkretne komunikaty w mediach społecznościowych, aby zwabić niezdecydowanych wyborców.

„Współpracujemy z niektórymi agencjami komercyjnymi, aby tworzyć treści wizualne, a wybory to także tylko kampania reklamowa” – powiedziała na początku tego miesiąca podczas wideokonferencji w Google Meet. „To jest to samo, ale w inny sposób i w innym celu”.

To może brzmieć wiarygodnie – w teorii. Jednak rzeczywistość kampanii politycznej – zwłaszcza przed zbliżającymi się czerwcowymi wyborami do Parlamentu Europejskiego, kiedy 27 krajów członkowskich bloku będzie głosować oddzielnie, jednocześnie – jest zupełnie inna.

Pomimo propozycji Perfection42 Vasytė-Kudakauskė przyznała, że ​​do wyborów do Parlamentu Europejskiego pozostały nieco ponad dwa tygodnie jej firma konsultingowa nie zarejestrowała jeszcze ani jednej kampanii w ramach swojej oferty opartej na sztucznej inteligencji.

W rozmowach TylkoGliwice z wieloma innymi agencjami w całej UE również nie udało się odkryć konkretnych kampanii, w których korzystano z usług zewnętrznych konsultantów, którzy uzupełniali tradycyjne taktyki prowadzenia kampanii sztuczną inteligencją – chociaż kilku kandydatów wewnętrznie eksperymentowało z generowaniem treści za pomocą narzędzi takich jak ChatGPT.

„Możesz personalizować treści pod kątem swoich użytkowników, nie tylko pod kątem złego, ale także dobrego wpływu” – stwierdziła Litwinka, szybko zmieniając zdanie, gdy TylkoGliwice zapytało, dlaczego jej firma – pomimo wysiłków mających na celu ukazanie pozytywnych stron sztucznej inteligencji w kampaniach – jeszcze nie zrobiła tego znaleźć chętnych. „Z jakiegoś powodu ludzie tak nie robią. Przegrywają wojnę, ponieważ nie grają na tym samym boisku”.

Oren Etzioni z niezwykłą elastycznością opisuje, jak powstała jego organizacja non-profit zajmująca się sztuczną inteligencją.

Amerykański przedsiębiorca technologiczny i naukowiec zajmujący się sztuczną inteligencją spotkał się zeszłego lata w San Francisco ze znaczącym headlinerem: prezydentem USA Joe Bidenem.

Etzioni powiedział TylkoGliwice, że podczas dyskusji z innymi ekspertami każdy z nich chodził po sali, aby opisać tak zwany projekt Moonshot, czyli ekscytujący pomysł, nad którym pracowali. Czekając na swoją kolej, badacz zdał sobie sprawę, że – w roku światowych wyborów – nie ma dobrego sposobu na szybkie wykrycie deepfake’ów na potrzeby masowej świadomości.

„Naprawdę nie było odpowiedniego narzędzia dostępnego dla prasy, weryfikatorów faktów i ogółu społeczeństwa, umożliwiającego ocenę, kiedy widzisz obraz, wideo lub dźwięk, czy jest to deepfake, czy nie” – stwierdził Etzioni. – Postanowiliśmy go zbudować.

Dostawcy komercyjni, tacy jak Reality Defender lub Sensity AI, już pobierają wysokie opłaty za takie wykrywanie. Jednak w ciągu kilku miesięcy Etzioni zwrócił się do Garretta Campa, współzałożyciela Ubera, o fundusze i stworzył TrueMedia.org.

Ta organizacja non-profit łączy narzędzia wykrywania pobieranych przez jej pobierających opłaty rywali z własnymi, wewnętrznymi metodami, aby dać użytkownikom wynik procentowy pozwalający ocenić prawdopodobieństwo, że obraz, film lub klip audio jest fałszywy. Użytkownicy mogą wstawić łącze internetowe do podejrzanych treści lub bezpośrednio przesłać materiały. Następnie TrueMedia ocenia prawdopodobieństwo, że coś zostało wygenerowane przez sztuczną inteligencję – choć Etzioni przyznaje, że wyniki nie są doskonałe.

Na przykład, gdy TylkoGliwice korzystało z bezpłatnej usługi, system był w stanie wykryć około 85 procent deepfakes.

Etzioni powiedział, że od maja tysiące ludzi – od naukowców i dziennikarzy po urzędników wyborczych i pracowników rządu federalnego USA – korzystało z jego produktu. Nie powiedział, ile czasu zajęło uruchomienie narzędzia do wykrywania. Zdaniem eksperta ds. sztucznej inteligencji koszty jednak spadły, w miarę jak systemy sztucznej inteligencji TrueMedia były szkolone na podstawie coraz większej liczby zapytań.

„Z założenia jest to – teraz i w przyszłości – propozycja generująca straty finansowe” – przyznał, ponownie odmawiając komentarza na temat swoich planów dotyczących tej usługi po listopadowych wyborach w USA. „Naszą ideą jest bycie usługą publiczną, a usługi publiczne mają swoją cenę”.

Dla Kate Dommett, profesor polityki cyfrowej na Uniwersytecie w Sheffield w Wielkiej Brytanii, rozwój narzędzi sztucznej inteligencji dedykowanych tegorocznemu cyklowi wyborczemu – zarówno ze strony dostawców komercyjnych, jak i organizacji non-profit – stanowi punkt wyjścia, a nie linię mety w rozwoju tej technologii. ewolucja.

Dommett jest ekspertem w zakresie wykorzystania najnowszych osiągnięć technologicznych w kampaniach politycznych na całym świecie. W obliczu szumu związanego ze sztuczną inteligencją pozostaje sceptyczna, czy obecna grupa usług, zwłaszcza tych oferujących możliwość dotarcia do ludzi w mediach społecznościowych za pomocą złożonych algorytmów i tak zwanej analizy danych, to coś więcej niż tylko dymy i lustra.

Dodała, że ​​chodzi raczej o zmianę przeznaczenia istniejących usług przez konsultantów i oznakowanie ich sztuczną inteligencją, niż o coś naprawdę rewolucyjnego.

„Wydaje się, że jest tak wcześnie, że naprawdę trudno stwierdzić, co się naprawdę dzieje” – powiedział Dommett. „Wiele z tych narzędzi wykazuje pewne usterki. Po prostu nie sądzę, że jesteśmy jeszcze w punkcie, w którym możemy naprawdę zaufać im, że rzeczywiście wykonają dobrą robotę”.