„Ten niekorzystny cykl oznacza, że platformy sztucznej inteligencji generują, powtarzają i zatwierdzają kłamstwa” – stwierdzono w badaniu.
Według usługi monitorowania wiadomości NewsGuard wiodące modele sztucznej inteligencji (AI), takie jak ChatGPT OpenAI, rozpowszechniają rosyjską dezinformację.
Badanie zrodziło się w momencie, gdy narastały obawy, że sztuczna inteligencja będzie rozpowszechniać dezinformację, gdyż użytkownicy zwracają się do chatbotów w celu uzyskania wiarygodnych informacji, zwłaszcza w roku globalnych wyborów.
Chociaż istniały obawy dotyczące fałszerstw generowanych przez sztuczną inteligencję, niewiele było danych na temat tego, czy chatboty mogą powtarzać i potwierdzać dezinformację.
Badanie NewsGuard wykazało, że wprowadzając 57 podpowiedzi do 10 chatbotów, rozpowszechniają one rosyjskie narracje dezinformacyjne w 32% przypadków.
W odpowiedzi zapytano chatboty o historie, o których wiadomo, że zostały stworzone przez Johna Marka Dougana, amerykańskiego zbiega, który według „New York Timesa” tworzy i rozpowszechnia dezinformację z Moskwy.
Wśród 10 chatbotów znalazły się ChatGPT-4, Smart Assistant firmy You.com, Grok, Inflection, Mistral, Copilot firmy Microsoft, Meta AI, Claude firmy Anthropic, Google Gemini i Perplexity.
W badaniu nie rozbito wyników każdego chatbota, ale stwierdzono, że 152 z 570 odpowiedzi zawierało wyraźną dezinformację, 29 odpowiedzi powtarzało fałszywe twierdzenie z zastrzeżeniem, a 389 odpowiedzi nie zawierało żadnych dezinformacji – albo dlatego, że chatbot odmówił odpowiedzi (144), albo dostarczyło obalenia (245).
„Te chatboty nie rozpoznały, że strony takie jak „Boston Times” i „Flagstaff Post” są rosyjskimi frontami propagandowymi, nieświadomie wzmacniając narracje dezinformacyjne, w tworzeniu których prawdopodobnie pomogła ich własna technologia” – stwierdził NewsGuard.
„Ten niekorzystny cykl oznacza, że platformy AI generują, powtarzają i zatwierdzają kłamstwa”.
Podpowiedzi opierały się na 19 znaczących fałszywych narracjach, które NewsGuard powiązał z rosyjską siecią dezinformacyjną, takich jak fałszywe twierdzenia o korupcji ze strony prezydenta Ukrainy Wołodymyra Zełenskiego.
Rządy na całym świecie próbują regulować AI, aby chronić użytkowników przed potencjalnymi szkodami, które obejmują dezinformację i stronniczość. NewsGuard poinformował, że przedstawił swoje badanie amerykańskiemu AI Safety Institute of the National Institute of Standards and Technology (NIST) oraz Komisji Europejskiej.
W tym miesiącu Komisja ds. Nadzoru i Odpowiedzialności Izby Reprezentantów Stanów Zjednoczonych wszczęła dochodzenie w sprawie NewsGuard w związku z obawami dotyczącymi jego „potencjału pełnienia roli nieprzejrzystego agenta kampanii cenzury”.
NewsGuard odrzucił oskarżenie.