O nas
Kontakt

Sonda pokazuje, że większość dorosłych Amerykanów uważa, że ​​sztuczna inteligencja przyczyni się do dezinformacji wyborczej w 2024 r

Laura Kowalczyk

Sonda pokazuje, że większość dorosłych Amerykanów uważa, że ​​sztuczna inteligencja przyczyni się do dezinformacji wyborczej w 2024 r

Z nowego sondażu wynika, że ​​większość dorosłych w Stanach Zjednoczonych uważa, że ​​narzędzia sztucznej inteligencji zwiększą rozprzestrzenianie się dezinformacji podczas wyborów.

W miarę zbliżania się roku 2024 ostrzeżenia stają się głośniejsze i pilniejsze: szybki postęp w narzędziach sztucznej inteligencji (AI) grozi nasileniem dezinformacji podczas przyszłorocznych wyborów prezydenckich na skalę nigdy wcześniej nie widzianą.

Jak wynika z nowego sondażu przeprowadzonego przez Associated Press-NORC Center for Public Affairs Research i Harris School of Public Policy na Uniwersytecie w Chicago, większość dorosłych w Stanach Zjednoczonych ma takie samo zdanie.

Sondaż wykazał, że prawie 6 na 10 dorosłych (58%) uważa, że ​​narzędzia sztucznej inteligencji – które mogą mikroatakować odbiorców politycznych, masowo generować przekonujące komunikaty i generować realistyczne fałszywe obrazy i filmy w ciągu kilku sekund – zwiększą rozprzestrzenianie się fałszywych i wprowadzających w błąd informacji . w przyszłorocznych wyborach.

Dla porównania 6% uważa, że ​​sztuczna inteligencja ograniczy rozprzestrzenianie się dezinformacji, a jedna trzecia twierdzi, że nie będzie to miało większego znaczenia.

„Zobacz, co wydarzyło się w 2020 r. – i to tylko w mediach społecznościowych” – powiedziała Rosa Rangel, 66 lat, z Fort Worth w Teksasie.

Rangel, Demokratka, która stwierdziła, że ​​w 2020 r. widziała wiele „kłamstw” w mediach społecznościowych, stwierdziła, że ​​jej zdaniem sztuczna inteligencja jeszcze bardziej pogorszy sytuację w 2024 r. – tak jakby kotlet „gotował się”.

Tylko 30% dorosłych w USA korzystało z chatbotów lub generatorów obrazów AI, a mniej niż połowa (46%) słyszała lub czytała przynajmniej kilka artykułów na temat narzędzi AI. Istnieje jednak powszechna zgoda co do tego, że kandydaci nie powinni korzystać ze sztucznej inteligencji.

Zła sytuacja dla kandydatów na prezydenta

Na pytanie, czy wykorzystywanie sztucznej inteligencji w określony sposób przez kandydatów na prezydenta w 2024 r. byłoby dobrym czy złym rozwiązaniem, zdecydowana większość stwierdziła, że ​​źle byłoby z ich strony tworzyć fałszywe media lub wprowadzające w błąd reklamy polityczne (83%), edytować lub dotykać ich. robić zdjęcia lub nagrywać filmy na potrzeby reklam politycznych (66 proc.), dostosowywać reklamy polityczne do indywidualnych wyborców (62 proc.) i odpowiadać na pytania wyborców za pośrednictwem chatbota (56 proc.).

Nastroje te popiera większość Republikanów i Demokratów, którzy zgadzają się, że źle byłoby, gdyby kandydaci na prezydenta tworzyli fałszywe zdjęcia lub filmy (85 proc. Republikanów i 90 proc. Demokratów) lub odpowiadali na pytania wyborców (56 proc.). . procent Republikanów i 63 procent Demokratów).

Dwupartyjny pesymizm wobec kandydatów korzystających ze sztucznej inteligencji pojawia się po jej wdrożeniu w prawyborach Partii Republikańskiej.

W kwietniu Republikański Komitet Narodowy opublikował reklamę całkowicie wygenerowaną przez sztuczną inteligencję, mającą pokazać przyszłość kraju, jeśli prezydent USA Joe Biden zostanie ponownie wybrany. Wykorzystano fałszywe, ale realistyczne zdjęcia przedstawiające zamknięte witryny sklepów, opancerzone patrole wojskowe na ulicach i fale imigrantów siejących panikę. Reklama drobnym drukiem ujawniła, że ​​została wygenerowana przez sztuczną inteligencję.

Ron DeSantis, republikański gubernator Florydy, również wykorzystał sztuczną inteligencję w swojej kampanii o nominację Partii Republikańskiej. Promował reklamę, w której wykorzystał obrazy wygenerowane przez sztuczną inteligencję, aby sprawiać wrażenie, jakby były prezydent Donald Trump ściskał doktora Anthony’ego Fauciego, specjalistę chorób zakaźnych, który nadzorował reakcję kraju na pandemię Covid-19.

Republikański kandydat na prezydenta, gubernator Florydy Ron DeSantis
Republikański kandydat na prezydenta, gubernator Florydy Ron DeSantis

Never Back Down, super PAC wspierający DeSantis, użył narzędzia do klonowania głosu AI, aby naśladować głos Trumpa, sprawiając wrażenie, jakby opowiadał post w mediach społecznościowych.

„Myślę, że powinni prowadzić kampanię w oparciu o swoje zasługi, a nie zdolność siania strachu w sercach wyborców” – powiedziała Andie Near, 42-latka z Holandii w stanie Michigan, która zazwyczaj głosuje na Demokratów.

W ramach swojej pracy w muzeum korzystała z narzędzi sztucznej inteligencji do retuszowania obrazów, ale stwierdziła, że ​​wierzy, że politycy wykorzystujący technologię do wprowadzania w błąd mogą „pogłębić i spotęgować efekt, jaki mogą wywołać nawet konwencjonalne reklamy przedstawiające ataki”.

Thomas Besgen, student z Partii Republikańskiej, również nie zgadza się z kampaniami wykorzystującymi sfałszowane dźwięki lub obrazy, aby sprawiać wrażenie, jakby kandydat powiedział coś, czego nigdy nie powiedział.

„Moralnie jest to złe” – stwierdziła 21-latka z Connecticut.

Besgen, student inżynierii mechanicznej na Uniwersytecie Dayton w Ohio, powiedział, że popiera zakazanie fałszywych reklam lub, jeśli nie jest to możliwe, wymaganie ich oznaczania jako wygenerowanych przez sztuczną inteligencję.

Federalna Komisja Wyborcza rozpatruje obecnie petycję, w której zwraca się do niej o uregulowanie kwestii deepfake’ów generowanych przez sztuczną inteligencję w reklamach politycznych przed wyborami w 2024 roku.

’Dodaj szczyptę soli’

Choć sceptyczny wobec wykorzystania sztucznej inteligencji w polityce, Besgen stwierdził, że jest entuzjastycznie nastawiony do jej potencjału dla gospodarki i społeczeństwa. Jest aktywnym użytkownikiem narzędzi AI, takich jak ChatGPT, które pomagają wyjaśniać interesujące go tematy historyczne lub przeprowadzać burze mózgów. Generatory obrazów wykorzystuje także dla zabawy, żeby na przykład wyobrazić sobie, jak mogą wyglądać stadiony sportowe za 100 lat.

Stwierdził, że ogólnie ufa informacjom, które otrzymuje od ChatGPT i prawdopodobnie wykorzysta je, aby dowiedzieć się więcej o kandydatach na prezydenta, co twierdzi tylko 5% dorosłych.

Sondaż pokazuje, że Amerykanie częściej szukają informacji na temat wyborów prezydenckich w mediach informacyjnych (46%), przyjaciołach i rodzinie (29%) oraz w mediach społecznościowych (25%) niż w przypadku chatbotów AI.

„Jakąkolwiek odpowiedź otrzymam, przyjmę ją z przymrużeniem oka” – powiedział Besgen.

Zdecydowana większość Amerykanów jest również sceptyczna wobec informacji przekazywanych przez chatboty AI. Jak wynika z ankiety, tylko 5 procent twierdzi, że jest bardzo lub bardzo pewna, że ​​informacje są prawdziwe, podczas gdy 33 procent twierdzi, że jest raczej pewna. Większość dorosłych (61 proc.) twierdzi, że nie ma dużej pewności lub nie ma jej wcale co do wiarygodności informacji.

Jest to zgodne z ostrzeżeniami wielu ekspertów AI przed wykorzystywaniem chatbotów do wyszukiwania informacji. Duże modele językowe sztucznej inteligencji, na których opierają się chatboty, działają poprzez wielokrotne wybieranie najbardziej prawdopodobnego kolejnego słowa w zdaniu, dzięki czemu potrafią dobrze naśladować styl pisania, ale są też podatne na zmyślanie.

Dorośli związani z obiema głównymi partiami politycznymi są generalnie otwarci na regulacje dotyczące sztucznej inteligencji. Zareagowali bardziej pozytywnie niż negatywnie na różne sposoby zakazywania lub oznaczania treści generowanych przez sztuczną inteligencję, które mogą być narzucane przez firmy technologiczne, rząd federalny, firmy z branży mediów społecznościowych lub media informacyjne.

Około dwie trzecie popiera rząd zakazujący treści generowanych przez sztuczną inteligencję, które zawierają fałszywe lub wprowadzające w błąd obrazy z reklam politycznych, podczas gdy podobna liczba chce, aby firmy technologiczne oznaczały wszystkie treści generowane przez sztuczną inteligencję utworzone na ich platformach.

W poniedziałek Biden wdrożył niektóre federalne wytyczne dotyczące sztucznej inteligencji, podpisując rozporządzenie wykonawcze mające na celu wytyczne dotyczące rozwoju szybko rozwijającej się technologii. Zarządzenie nakłada na branżę obowiązek opracowania standardów bezpieczeństwa i nakazuje Departamentowi Handlu wydanie wytycznych dotyczących etykietowania i znakowania wodnego treści generowanych przez sztuczną inteligencję.

Amerykanie w dużej mierze postrzegają zapobieganie fałszywym lub wprowadzającym w błąd informacjom generowanym przez sztuczną inteligencję podczas wyborów prezydenckich w 2024 r. jako wspólną odpowiedzialność. Około 6 na 10 (63 procent) twierdzi, że duża część odpowiedzialności spoczywa na firmach technologicznych tworzących narzędzia AI, ale około połowa zrzuca dużą część tej odpowiedzialności na media informacyjne (53 procent) i firmy z branży mediów społecznościowych (52 procent). . proc.) i rząd federalny (49 proc.).

Demokraci nieco częściej niż Republikanie twierdzą, że firmy z branży mediów społecznościowych ponoszą dużą odpowiedzialność, ale ogólnie zgadzają się co do poziomu odpowiedzialności firm technologicznych, mediów informacyjnych i rządu federalnego.

Badanie przeprowadzono wśród 1017 dorosłych w dniach 19–23 października 2023 r. na próbie pobranej z opartego na prawdopodobieństwie panelu AmeriSpeak firmy NORC, zaprojektowanego tak, aby reprezentować populację USA. Margines błędu próby dla wszystkich respondentów wynosi plus minus 4,1 punktu procentowego.