Europa w stanie najwyższej gotowości w związku z falą dezinformacji w popularnych serwisach społecznościowych.
Nadchodzące wybory na Słowacji są „przypadkiem testowym” tego, jak podatne są wybory europejskie na „wartą wiele milionów euro broń masowej manipulacji”, której Moskwa używa do wtrącania się w głosy poprzez dezinformację w Internecie, powiedział we wtorek główny urzędnik Unii Europejskiej ds. cyfrowych.
Słowacy pójdą do urn 30 września w wyborach parlamentarnych. W sondażach prowadzi populistyczna partia Smer-SD, na której czele stoi Robert Fico, kontrowersyjny były premier kraju, który opowiada się za zakończeniem wsparcia wojskowego dla Ukrainy.
Głosowanie jest kluczowe, „ponieważ podejście do Rosji czy Ukrainy prowadzi do linii podziału” – powiedziała wiceprzewodnicząca Komisji Europejskiej Věra Jourová, czeska polityk odpowiedzialna za sprawy cyfrowe i demokrację na szczeblu UE.
W czerwcu przyszłego roku UE organizuje także własne wybory do Parlamentu Europejskiego. Polska wybierze swój kolejny rząd 15 października w kolejnych kluczowych wyborach, które mogą mieć wpływ na perspektywy Rosji w wojnie na Ukrainie.
Ryzyko ingerencji Moskwy w przyszłoroczne wybory do UE jest „szczególnie poważne” – stwierdziła Jourová. „Państwo rosyjskie zaangażowało się w wojnę idei, aby zanieczyścić naszą przestrzeń informacyjną półprawdami i kłamstwami, aby stworzyć fałszywy obraz, że demokracja nie jest lepsza od autokracji” – stwierdziła.
Jak podało w poniedziałek TylkoGliwice, Komisja i słowacki organ regulacyjny ds. mediów odbyły na początku tego miesiąca w Bratysławie szereg spotkań z firmami, w tym Meta z Facebooka, Alphabet z Google i TikTok, zalecając im większe inwestycje w celu ograniczenia problemu. Jourová stwierdziła, że kraj ten jest „żyznym gruntem” dla rosyjskich narracji prowojennych, powtarzając podobne obawy niezależnych badaczy i krajowego organu nadzoru mediów.
Z sondażu przeprowadzonego w marcu przez think tank GLOBSEC wynika, że 53 proc. Słowaków uważa, że wybory zostaną zmanipulowane. Słowacki organ regulacyjny ds. mediów zauważył również wcześniej, że Meta zleciła tylko jednemu weryfikatorowi faktów dla Facebooka w ramach przeglądu moderowania nielegalnych treści przez duże media społecznościowe. Jourová powiedziała, że Facebook obiecał zwiększyć liczbę osób weryfikujących fakty i że otrzymała raporty, że ten portal społecznościowy, bardzo popularny na Słowacji, dodał już pracowników, którzy mają weryfikować potencjalne kłamstwa rozpowszechniane na platformie.
Komisja opublikowała we wtorek szczegółowe sprawozdania na temat sposobu, w jaki media społecznościowe Facebook, YouTube i TikTok poradziły sobie z kłamstwami krążącymi w Internecie w pierwszej połowie 2023 r. w ramach regularnej kontroli platform internetowych, które podpisały dobrowolną unijną kartę dezinformacji. Prosi firmy technologiczne o podanie informacji, w tym o sposobie śledzenia reklam politycznych, zaprzestaniu monetyzacji dezinformacji i współpracy z osobami weryfikującymi fakty.
Kodeks postępowania w zakresie dezinformacji na rok 2022 został uzgodniony w czerwcu 2022 r. i podpisany przez 44 uczestników, w tym firmy z branży mediów społecznościowych, grupy weryfikujące fakty i stowarzyszenia reklamowe. Blok wdraża także ustawę o moderowaniu treści, ustawę o usługach cyfrowych (DSA), która nakłada na duże platformy technologiczne z ponad 45 milionami użytkowników w UE obowiązek ograniczania ryzyka kampanii dezinformacyjnych i która ma sprawić, że karta dezinformacji stanie się wiążąca dla bardzo dużych platform internetowych w pierwszej połowie 2024 r.
W swoich raportach firmy zajmujące się mediami społecznościowymi odnotowały aktywność z pierwszej połowy 2023 roku, która nosiła znamiona sponsorowanych przez rosyjskie państwo kampanii wywierających wpływ.
Z raportu Google wynika, że YouTube zamknął ponad 400 kanałów zaangażowanych w skoordynowane operacje wywierania wpływu powiązane ze sponsorowaną przez państwo rosyjską Agencją Badań nad Internetem (IRA).
TikTok usunął także kilka kampanii dezinformacyjnych, w tym sieć ponad 3000 fałszywych kont z Rosji, a następnie około 418 000 osób, które udostępniały fałszywe treści w języku niemieckim na temat wojny na Ukrainie i jej konsekwencji dla gospodarek krajów UE – podała firma. Chińska aplikacja do udostępniania plików wideo podała, że w pierwszej połowie roku usunęła aż 5,9 miliona fałszywych kont, głównie z Hiszpanii, Niemiec, Włoch i Francji, w porównaniu z 850 000 nieautentycznych kont w drugiej połowie 2022 r. Firma stwierdziło, że złośliwe strony trzecie „nieustannie sondują i atakują” ich systemy, powodując „czasami wahania raportowanych wskaźników w tych obszarach”.
LinkedIn zablokował także ponad 6,7 miliona użytkowników – większość z Francji, Rumunii i Niemiec – możliwość ich rejestracji lub ograniczył ich rejestrację w porównaniu z około 849 500 fałszywych kont w drugiej połowie ubiegłego roku. Meta podała, że w pierwszej połowie 2023 r. usunęła na całym świecie 1102 miliony fałszywych kont, co stanowi około 4–5 procent jej miesięcznych aktywnych użytkowników na całym świecie.
Żadne dane udostępniane przez spółki nie zostały poddane audytowi.
Ale to X, platforma mediów społecznościowych znana wcześniej jako Twitter, została ostro skrytykowana przez urzędników UE za niepowstrzymanie dezinformacji. „X, były Twitter – który nie podlega już Kodeksowi – to platforma z największym odsetkiem postów wprowadzających w błąd lub dezinformujących” – stwierdziła Jourová. „Stwierdzono, że podmioty dezinformujące (na X) mają znacznie więcej zwolenników niż ich odpowiednicy niedezinformujący i zazwyczaj dołączają do platformy później niż użytkownicy niedezinformujący” – stwierdziła, odnosząc się do badań wspieranych przez UE.
„Elon Musk wie, że nie uniknie porzucenia Kodeksu postępowania, ponieważ mamy w pełni obowiązującą ustawę o usługach cyfrowych” – powiedziała.
Twitter opuścił Kartę pod koniec maja po tym, jak nie przeszedł pierwszego testu dezinformacji w UE, co spowodowało wówczas potępienie ze strony urzędników Komisji.
Jourová stwierdziła, że platforma powinna skupiać się na „konsekwentnym moderowaniu i inwestowaniu w sprawdzanie faktów, szczególnie w przypadku mniejszych państw członkowskich i języków”, a także na udostępnianiu swoich danych badaczom.
Platformy, w tym TikTok i Google, również wprowadziły zasady mające na celu ograniczenie niewłaściwego wykorzystania treści generowanych przez sztuczną inteligencję, takich jak deepfakes. „Wysiłki te należy kontynuować i intensyfikować, biorąc pod uwagę wysoki potencjał takich realistycznych produktów sztucznej inteligencji podczas tworzenia i rozpowszechniania dezinformacji” – stwierdziła Jourová.
„Połączenie sztucznej inteligencji i dezinformacji to koszmar” – powiedziała, obiecując zwrócić się do kadry kierowniczej OpenAI, właściciela ChatGPT, z prośbą o dołączenie jej do unijnego kodeksu dezinformacji.
Google odmówił komentarza w sprawie prośby o komentarz złożonej przez TylkoGliwice. Meta i X (dawniej Twitter) nie odpowiedziały natychmiast na prośby o komentarz.
Caroline Greer, dyrektor ds. polityki publicznej i relacji z rządem w TikTok w Brukseli, napisała w poście na blogu, że firma zajmująca się mediami społecznościowymi dokłada wszelkich starań, aby chronić uczciwość wyborów na całym świecie. Dodała, że inicjatywy podjęte podczas wyborów w Grecji, Hiszpanii i Finlandii zostaną rozważone w ramach przygotowań do wyborów do Parlamentu Europejskiego.
Rzecznik LinkedIn powiedział, że raport dotyczący statutu „jest ważnym krokiem w zwiększaniu przejrzystości i zapewnianiu, że nasza społeczność pozostanie zaufana i profesjonalna… Nasza obrona i zespoły analizują szereg sygnałów dotyczących rejestracji konta i aktywności na platformie w celu wyłapywania fałszywych kont.”
Ten artykuł został zaktualizowany w celu uwzględnienia szczegółowych informacji na temat raportów platform internetowych oraz odpowiedzi od firma także uwagi unijnego komisarza.