O nas
Kontakt

Badania wykazały, że chatboty AI celowo szerzą dezinformację związaną z wyborami

Laura Kowalczyk

Study found AI chatbots have been

W zaktualizowanym raporcie stwierdzono, że większość firm technologicznych nie wprowadziła wystarczających zmian na swoich platformach, aby powstrzymać je od rozpowszechniania fałszywych informacji.

Zaktualizowane badanie wykazało, że najpopularniejsze w Europie chatboty oparte na sztucznej inteligencji (AI) celowo rozpowszechniają wśród swoich użytkowników dezinformację związaną z wyborami.

Democracy Reporting International (DRI) zbadało, w jaki sposób chatboty odpowiadały na pytania związane bezpośrednio z procesem wyborczym za pomocą Google Gemini, ChatGPT4 i ChatGPT4-o firmy OpenAI oraz Copilot firmy Microsoft.

W dniach 22–24 maja badacze zadali chatbotom pięć pytań w 10 językach UE, m.in. w jaki sposób użytkownik miałby zarejestrować się do głosowania, jeśli mieszka za granicą, co zrobić, aby wysłać głos pocztą i kiedy zostaną ogłoszone wyniki wyborów do Parlamentu Europejskiego na zewnątrz.

„Nasze ostatnie badanie zatytułowaliśmy „dezinformacja”… zmieniliśmy teraz kategorię na „dezinformacja”, co sugeruje poziom intencji” – czytamy w raporcie.

„Kiedy firma zostanie poinformowana o dezinformacji, ale nie podejmie wobec niej działań, świadomie akceptuje rozpowszechnianie fałszywych informacji”.

Zmienione badanie stanowi kontynuację kwietniowego raportu opublikowanego przez DRI, z którego wynika, że ​​chatboty nie są w stanie „udzielać wiarygodnie i wiarygodnych odpowiedzi” na typowe odpowiedzi związane z wyborami.

„Kiedy pytasz (czatboty AI) o coś, na co nie mieli zbyt wielu materiałów i na temat którego nie można znaleźć zbyt wielu informacji w Internecie, po prostu coś wymyślają” – Michael-Meyer Resende, dyrektor wykonawczy z DRI, powiedział wówczas TylkoGliwice Next.

Bliźnięta, Drugi pilot odmawia odpowiedzi

Jak wynika z raportu, testy wykazały, że Gemini odmówiły odpowiedzi na jakiekolwiek pytania dotyczące procesu wyborczego w żadnym z testowanych języków.

„Uważamy, że jest to odpowiedzialny sposób rozwiązania tego problemu, ponieważ dla użytkowników lepiej jest nie uzyskać żadnych informacji (i szukać gdzie indziej) niż uzyskać nieprawidłowe informacje na temat wyborów” – kontynuowano w badaniu.

Z kwietniowego raportu DRI wynika, że ​​należący do Google Gemini osiągnął najgorsze wyniki w zakresie dostarczania dokładnych i przydatnych informacji, a także miał największą liczbę odmów udzielenia odpowiedzi.

Google powiedział wcześniej portalowi TylkoGliwice Next, że wprowadził dalsze ograniczenia dotyczące zakresu, w jakim Gemini może odpowiadać na pytania związane z wyborami we wszystkich 10 językach użytych w tym badaniu.

Copilot firmy Microsoft odmówił odpowiedzi na niektóre pytania, zwłaszcza w języku angielskim i portugalskim, i zamiast tego odsyłał osoby wyszukujące do swojej wyszukiwarki Bing w celu uzyskania wiarygodnych informacji.

W innych językach „nie było dostrzegalnego wzorca” określającego, kiedy drugi pilot będzie próbował odpowiedzieć lub odmawiał odpowiedzi. Dla badaczy oznacza to, że Microsoft włożył pewien wysiłek w ograniczenie halucynacji wywoływanych przez chatbota, ale ograniczenie nie obejmuje wszystkich języków UE.

Kiedy odpowiedział, badacze odkryli, że ponad jedna trzecia ich odpowiedzi była częściowo lub całkowicie niepoprawna.

Badacze czasami zaobserwowali te same problemy, co w swoim ostatnim badaniu, jak wtedy, gdy Copilot nie wspomniał w języku polskim, że obywatele mieszkający za granicą mogą zarejestrować się, aby głosować na eurodeputowanych ze swojego kraju.

Inny przykład kazał greckim wyborcom zarejestrować się, aby móc głosować, podczas gdy w rzeczywistości wszyscy obywatele są rejestrowani automatycznie.

W poprzednim oświadczeniu dla TylkoGliwice Next Microsoft przedstawił swoje działania przed wyborami do Parlamentu Europejskiego, w tym zestaw zobowiązań w zakresie ochrony wyborów, które „pomagają chronić wyborców, kandydatów, kampanie i władze wyborcze”.

W ramach tych zobowiązań zapewniamy wyborcom „wiarygodne informacje wyborcze” w serwisie Bing.

„Chociaż żadna osoba, instytucja ani firma nie może zagwarantować, że wybory będą wolne i uczciwe, możemy poczynić znaczące postępy w ochronie prawa każdego człowieka do wolnych i uczciwych wyborów” – czytamy w oświadczeniu Microsoftu.

OpenAI powinno „pilnie przeszkolić” chatboty

Obydwa modele ChatGPT4 rzadko odmawiały odpowiedzi na pytania, co prowadziło do wyższego odsetka błędnych lub częściowo poprawnych odpowiedzi niż ich konkurenci z chatbotami. Błędy, które popełniali, dotyczyły często drobnych, ale ważnych szczegółów.

Nie wydaje się, aby OpenAI podejmowało jakiekolwiek próby uniknięcia dezinformacji wyborczej.

Międzynarodowe raportowanie o demokracji

W jednym przypadku ChatGPT skierował irlandzkich wyborców do jednego konkretnego formularza, który należy wypełnić osobiście w celu oddania głosu, podczas gdy w rzeczywistości są one dostępne w Internecie, a rodzaj potrzebnego formularza zależy od „kontekstu osobistego i statusu”.

„Koncentrując się tylko na jednym formularzu, chatboty zapewniły niepełny obraz procesu rejestracji w Irlandii” – wykazało badanie.

Badacze twierdzą, że ChatGPT mógłby zawierać „(dostarczone)… bardziej ogólne informacje” zamiast szczegółowych odpowiedzi na pytania użytkowników, aby było dokładniejsze.

W raporcie kontynuowano, że do odpowiedzi sporadycznie dodawano zastrzeżenie dotyczące weryfikacji informacji dostarczonych przez ChatGPT w wyniku wyborów lokalnych.

„Wygląda na to, że OpenAI nie podjęło żadnych prób uniknięcia dezinformacji wyborczej” – podsumowuje badanie.

„Powinna pilnie przeszkolić swoje chatboty, aby zapobiegać takiej dezinformacji” – czytamy dalej w raporcie.

OpenAI wyjaśnia na swojej stronie internetowej, że jego podejście do treści związanych z wyborami polega na „kontynuowaniu prac nad bezpieczeństwem platformy poprzez podnoszenie dokładnych informacji o głosowaniu” i poprawie przejrzystości firmy.