O nas
Kontakt

Analiza: W dobie sztucznej inteligencji zachowaj spokój i głosuj dalej

Laura Kowalczyk

Analiza: W dobie sztucznej inteligencji zachowaj spokój i głosuj dalej

Rozpoczynając serię o sztucznej inteligencji, dezinformacji i globalnych wyborach, miałem dość jasny obraz sytuacji.

Sprawa sprowadzała się do tego: chociaż sztuczna inteligencja pobudziła ludzką wyobraźnię – a na powierzchnię zaczęły wypływać deepfakes i inne kłamstwa generowane przez sztuczną inteligencję – technologia ta nie stanowiła jeszcze skokowej zmiany w sposobie kłamstw motywowanych politycznie, często rozpowszechnianych za pośrednictwem mediów społecznościowych, zmieniłyby cykl megawyborów, który ogarnie świat w 2024 roku.

Teraz, po dziewięciu historiach i relacjach z podróży z Kiszyniowa do Seattle, nie widziałem niczego, co mogłoby zmienić ten początkowy pogląd. Ale sprawy, jak zawsze, są bardziej skomplikowane – i bardziej niestabilne – niż początkowo sądziłem.

Z ponad 100 wywiadów z decydentami, urzędnikami rządowymi, dyrektorami ds. technologii i grupami społeczeństwa obywatelskiego jasno wynika, że ​​technologia – w szczególności generatywna sztuczna inteligencja – staje się z każdym dniem coraz bardziej zaawansowana.

W trakcie pisania reportażu pokazano mi fałszywe filmy rzekomo przedstawiające światowych przywódców, takich jak prezydent USA Joe Biden i jego francuski odpowiednik Emmanuel Macron, których nie można było odróżnić od prawdziwych. Byli wśród nich politycy rzekomo mówiący w wielu językach i mówiący rzeczy, które, jeśli to prawda, zakończyłyby ich karierę.

Były tak realistyczne, że trudno byłoby przekonać kogokolwiek bez głębokiej wiedzy technicznej, że stworzył je algorytm.

Mimo że jestem reporterem technicznym, nie jestem fanboyem technologii. Jednak szybkość rozwoju sztucznej inteligencji i łatwość jej obsługi przez osoby z niewielkim lub żadnym doświadczeniem w informatyce powinny wzbudzić w nas wszystkich niepokój.

Drugim kluczowym tematem, który mnie zaskoczył w tej serii, był zakres nadzoru zleconego firmom — wiele z nich to te same firmy, które stworzyły systemy sztucznej inteligencji, które można wykorzystać do wyrządzenia szkody.

Ponad 25 gigantów technologicznych podpisało obecnie tak zwane Porozumienia Wyborcze AI, dobrowolne zobowiązania firm, w tym Microsoft, ByteDance i Alphabet, do podjęcia wszelkich możliwych działań, aby chronić globalne wybory przed zagrożeniem stwarzanym przez sztuczną inteligencję.

Biorąc pod uwagę osiągnięcia wielu z tych firm w zakresie ochrony użytkowników przed istniejącymi szkodami, w tym molestowaniem i zastraszaniem w mediach społecznościowych, poleganie na nich w kwestii ochrony uczciwości wyborów jest ogromnym przejawem wiary.

Dzieje się tak pomimo uzasadnionej dobrej woli, jaką wywnioskowałem z wielu wywiadów z kadrą kierowniczą tych firm, a której celem jest maksymalne ograniczenie szkód o charakterze politycznym.

Problem, począwszy od połowy 2024 r., polega na tym, że rządy, organy regulacyjne i inne gałęzie państwa po prostu nie są przygotowane na potencjalne zagrożenie – i tak jest potencjał — powiązany z AI.

Duża część wiedzy technicznej leży głęboko w firmach. Prace legislacyjne, w tym niedawno przyjęta przez Unię Europejską ustawa o sztucznej inteligencji, w najlepszym przypadku są w toku. Niemal całkowity brak nadzoru nad działaniem algorytmów opartych na sztucznej inteligencji platform mediów społecznościowych uniemożliwia poleganie na kimkolwiek innym niż sami giganci technologiczni w kwestii kontrolowania sposobu, w jaki te systemy określają, co ludzie widzą w Internecie.

Skoro sztuczna inteligencja rozwija się szybciej, niż można powiedzieć „model wielkojęzykowy”, a rządy starają się dotrzymać kroku, dlaczego nadal jestem ostrożny, jeśli chodzi o ogłaszanie tego roku jako roku dezinformacji napędzanej sztuczną inteligencją, podczas gdy miliardy ludzi pójdą do urn w 2024 r.?

Na razie mam potencjalnie naiwne przekonanie, że ludzie są mądrzejsi, niż wielu z nas myśli.

Choć łatwo jest pomyśleć, że jeden dobrze umieszczony fałszywy fałszywy AI w mediach społecznościowych może zmienić zdanie niczego niepodejrzewających wyborców, ludzie nie dokonują w ten sposób swoich wyborów politycznych. Utrwalone poglądy na temat konkretnych prawodawców lub partii utrudniają zmianę opinii obywateli. Fakt, że na fałszerstwa napędzane sztuczną inteligencją należy patrzeć w szerszym kontekście – obok innych postów w mediach społecznościowych, dyskusji z członkami rodziny i interakcji z tradycyjnymi mediami – również utrudnia przebicie się takich kłamstw.

Wierzę jednak, że dokąd zmierzamy, to era „post-post-prawdy”, w której ludzie będą myśleć, że wszystko, mam na myśli wszystko, jest zmyślone, zwłaszcza w Internecie. Pomyśl o „fałszywych wiadomościach”, ale pojawiło się 11, gdzie nawet najbardziej pozornie autentyczna treść nie może być uznana za w 100% prawdziwą.

Widzimy już przykłady polityków twierdzących, że szkodliwe posty w mediach społecznościowych to fałszywe informacje, podczas gdy w rzeczywistości są one uzasadnione. W sytuacji, gdy histeria wokół sztucznej inteligencji często przewyższa możliwości tej technologii obecnie – pomimo codziennego postępu – panuje obecnie powszechna gotowość do wiary w to, że wszystkie treści można tworzyć za pomocą sztucznej inteligencji, nawet jeśli nie jest to możliwe.

W takim świecie racjonalne jest nie mieć wiary w nic.

Pozytyw jest taki, że jeszcze tego nie osiągnęliśmy. Jeśli dziewięć artykułów z serii „Boty i karty do głosowania” cokolwiek pokazuje, to to, że tak, mamy do czynienia z dezinformacją napędzaną sztuczną inteligencją. Ale nie, nie jest to zagrożenie egzystencjalne i należy je postrzegać jako część szerszego świata „starej szkoły” kampanii, a w niektórych przypadkach obcych ingerencji i cyberataków. Sztuczna inteligencja jest narzędziem agnostycznym, którym można się posługiwać w dobrym lub złym celu.

Czy to się zmieni w nadchodzących latach? Potencjalnie. Jednak w tegorocznej kampanii wyborczej najlepiej jest zachować czujność i nie dać się wciągnąć w szum medialny, jakim stała się sztuczna inteligencja.