O nas
Kontakt

Z raportu wynika, że ​​chatboty AI rozpowszechniają kłamstwa na temat wyborów do Parlamentu Europejskiego

Laura Kowalczyk

Z raportu wynika, że ​​chatboty AI rozpowszechniają kłamstwa na temat wyborów do Parlamentu Europejskiego

BRUKSELA — Jak wynika z analizy udostępnionej wyłącznie TylkoGliwice, chatboty produkowane przez Google, Microsoft i OpenAI przekazały fałszywe informacje na temat wyborów europejskich na dwa miesiące przed tym, jak setki milionów ludzi wyruszyło na głosowanie.

Chociaż narzędzia sztucznej inteligencji pozostały politycznie neutralne, zwykle zwracały nieprawidłowe daty wyborów i informacje o tym, jak oddać głos, stwierdziła Democracy Reporting International, organizacja pozarządowa z siedzibą w Berlinie, która przeprowadziła badanie w marcu. Badacze dodali, że chatboty często udostępniały również uszkodzone lub nawet nieistotne linki do filmów w YouTube lub treści w języku japońskim.

„Nie byliśmy zaskoczeni, gdy znaleźliśmy błędne informacje na temat szczegółów wyborów europejskich, ponieważ wiadomo, że chatboty podczas udzielania odpowiedzi wymyślają fakty, co jest zjawiskiem znanym jako halucynacja” – powiedział Michael Meyer-Resende, współzałożyciel i dyrektor wykonawczy Democracy Reporting International .

Badacze zauważyli, że chatboty AI były dynamiczne, co utrudniało powtórzenie eksperymentu. W serii kilkunastu testów z podobnymi pytaniami przeprowadzonych we wtorek przez TylkoGliwice chatboty albo odmówiły całkowitej odpowiedzi, albo zaktualizowały odpowiedzi zawierające linki kierujące użytkowników do stron internetowych instytucji UE.

Meyer-Resende stwierdziła jednak, że eksperyment był wystarczająco duży, aby był reprezentatywny. Dostarczyło także nowych dowodów na temat ryzyka tzw. halucynacji sztucznej inteligencji – które często występują z powodu niewystarczających danych szkoleniowych, uprzedzeń i fałszywych założeń – przed wyborami europejskimi, które odbędą się w dniach 6–9 czerwca.

Szybkie pojawienie się łatwych w użyciu narzędzi sztucznej inteligencji generujących tekst, dźwięk i wideo wzbudziło obawy dotyczące wzrostu dezinformacji w roku, w którym odbyły się kluczowe wybory w UE, Stanach Zjednoczonych, Wielkiej Brytanii i Indiach. W marcu Komisja Europejska nakazała kilku firmom technologicznym, takim jak Bing i Google, wyjaśnienie – przed 5 kwietnia – w jaki sposób ograniczają potencjalne ryzyko dla wyborów związane z ich generatywnymi narzędziami sztucznej inteligencji na mocy ustawy o usługach cyfrowych.

Badacze zadali te same 10 pytań w 10 językach – w tym niemieckim, włoskim, polskim i portugalskim – w dniach 11–14 marca czterem najpopularniejszym i dostępnym chatbotom: ChatGPT 3.5 i 4 OpenAI, Gemini firmy Google oraz Copilot firmy Microsoft.

Najnowsza płatna wersja ChatGPT wypadła najlepiej, podczas gdy Google Gemini uznano za najmniej prawdopodobne, że w czasie testu udzieli poprawnych odpowiedzi.

„Ze względu na znane ograniczenia wszystkich programów LLM uważamy, że odpowiedzialnym podejściem firmy Gemini jest ograniczenie większości zapytań związanych z wyborami i kierowanie użytkowników do wyszukiwarki Google w celu uzyskania najnowszych i najdokładniejszych informacji” – powiedział Karl Ryan, rzecznik Google.

Dodał, że należąca do Google Gemini była w trakcie wprowadzania ograniczeń w marcu, ale ograniczenia już obowiązują. „Będziemy nadal szybko reagować na przypadki, w których Gemini nie reaguje odpowiednio”.

„Nadal rozwiązujemy problemy i przygotowujemy nasze narzędzia, aby spełniały nasze oczekiwania przed wyborami w 2024 r.” – powiedział Robin Koch, rzecznik Microsoftu. Dodał, że niektóre ze środków obejmowały przekazywanie użytkownikom programu Copilot firmy Microsoft informacji o wyborach z wiarygodnych źródeł i nakłanianie ich do sprawdzania łączy internetowych.

OpenAI nie odpowiedziało na prośbę o komentarz w terminie umożliwiającym publikację.