O nas
Kontakt

Badania wykazały, że ChatGPT, Grok, Gemini i inne chatboty AI rozpowszechniają rosyjskie dezinformacje

Laura Kowalczyk

A ChapGPT logo is seen in West Chester, Pa., Wednesday, Dec. 6, 2023.

„Ten niekorzystny cykl oznacza, że ​​platformy sztucznej inteligencji generują, powtarzają i zatwierdzają kłamstwa” – stwierdzono w badaniu.

Według usługi monitorowania wiadomości NewsGuard wiodące modele sztucznej inteligencji (AI), takie jak ChatGPT OpenAI, rozpowszechniają rosyjską dezinformację.

Badanie zrodziło się w momencie, gdy narastały obawy, że sztuczna inteligencja będzie rozpowszechniać dezinformację, gdyż użytkownicy zwracają się do chatbotów w celu uzyskania wiarygodnych informacji, zwłaszcza w roku globalnych wyborów.

Chociaż istniały obawy dotyczące fałszerstw generowanych przez sztuczną inteligencję, niewiele było danych na temat tego, czy chatboty mogą powtarzać i potwierdzać dezinformację.

Badanie NewsGuard wykazało, że wprowadzając 57 podpowiedzi do 10 chatbotów, rozpowszechniają one rosyjskie narracje dezinformacyjne w 32% przypadków.

W odpowiedzi zapytano chatboty o historie, o których wiadomo, że zostały stworzone przez Johna Marka Dougana, amerykańskiego zbiega, który według „New York Timesa” tworzy i rozpowszechnia dezinformację z Moskwy.

Wśród 10 chatbotów znalazły się ChatGPT-4, Smart Assistant firmy You.com, Grok, Inflection, Mistral, Copilot firmy Microsoft, Meta AI, Claude firmy Anthropic, Google Gemini i Perplexity.

W badaniu nie rozbito wyników każdego chatbota, ale stwierdzono, że 152 z 570 odpowiedzi zawierało wyraźną dezinformację, 29 odpowiedzi powtarzało fałszywe twierdzenie z zastrzeżeniem, a 389 odpowiedzi nie zawierało żadnych dezinformacji – albo dlatego, że chatbot odmówił odpowiedzi (144), albo dostarczyło obalenia (245).

„Te chatboty nie rozpoznały, że strony takie jak „Boston Times” i „Flagstaff Post” są rosyjskimi frontami propagandowymi, nieświadomie wzmacniając narracje dezinformacyjne, w tworzeniu których prawdopodobnie pomogła ich własna technologia” – stwierdził NewsGuard.

„Ten niekorzystny cykl oznacza, że ​​platformy AI generują, powtarzają i zatwierdzają kłamstwa”.

Podpowiedzi opierały się na 19 znaczących fałszywych narracjach, które NewsGuard powiązał z rosyjską siecią dezinformacyjną, takich jak fałszywe twierdzenia o korupcji ze strony prezydenta Ukrainy Wołodymyra Zełenskiego.

Rządy na całym świecie próbują regulować AI, aby chronić użytkowników przed potencjalnymi szkodami, które obejmują dezinformację i stronniczość. NewsGuard poinformował, że przedstawił swoje badanie amerykańskiemu AI Safety Institute of the National Institute of Standards and Technology (NIST) oraz Komisji Europejskiej.

W tym miesiącu Komisja ds. Nadzoru i Odpowiedzialności Izby Reprezentantów Stanów Zjednoczonych wszczęła dochodzenie w sprawie NewsGuard w związku z obawami dotyczącymi jego „potencjału pełnienia roli nieprzejrzystego agenta kampanii cenzury”.

NewsGuard odrzucił oskarżenie.