W porównaniu z wyborami w 2019 r. obowiązuje więcej przepisów platformy UE.
W czerwcu tego roku około 365 milionów ludzi będzie uprawnionych do głosowania w wyborach do UE, w tym wielu młodych wyborców, dla których media społecznościowe są istotnym źródłem prowadzenia kampanii. Cztery kraje – Belgia, Niemcy, Malta i Austria – pozwolą na głosowanie 16-latkom, w Grecji minimalny wiek uprawniający do głosowania to 17 lat.
Pięć lat temu, kiedy odbyło się ostatnie głosowanie w UE, krajobraz regulacyjny platform internetowych był zupełnie inny: było mniej przepisów dotyczących zwalczania dezinformacji, a ustawa o sztucznej inteligencji jeszcze nie istniała. Przyglądamy się, jak zmieniły się regulacje dotyczące platform w UE w 2024 r. w porównaniu z ostatnimi wyborami w 2019 r. i jaki to ma wpływ na firmy z branży mediów społecznościowych.
1. TikTok
Platformy odegrały pewną rolę w kampanii wyborczej w 2019 r., ale TikTok naprawdę zmienił zasady gry. Podczas gdy Facebook i Twitter (obecnie X) były duże już pięć lat temu, należąca do Chin platforma udostępniania wideo TikTok szybko zyskała popularność i obecnie może pochwalić się ponad 150 milionami użytkowników miesięcznie w całej Europie. Meta wciąż przewyższa ten wynik z około 408 milionami użytkowników miesięcznie w Europie.
Ze sprawozdania Biura Analiz Parlamentu Europejskiego wynika, że frekwencja wyborcza w 2019 r. wyniosła 50,6%, głównie dzięki udziałowi młodych ludzi, który został wywołany kampanią parlamentarną i korzystaniem z platform takich jak Snapchat. TikTok, ze swoją dużą liczbą młodych użytkowników, może tym razem odegrać podobnie kluczową rolę, pomimo uwikłania platformy w zawirowania regulacyjne w ostatnich miesiącach.
Komisja Europejska i Parlament wezwały pracowników do zakazania aplikacji na telefonach służbowych ze względu na obawy dotyczące cyberbezpieczeństwa. „Zdecydowanie zaleca się”, aby prawodawcy i ich asystenci usunęli TikTok ze swoich urządzeń osobistych. Niektóre grupy polityczne, takie jak socjaldemokratyczna grupa S&D i Lewica (GUE/NGL), rzeczywiście korzystają z aplikacji w swoich kampaniach. Jednak rosnące w ostatnich dniach obawy dotyczące bezpieczeństwa i ochrony danych w związku z tą popularną firmą stawiają sprawę w innym świetle. W lutym i kwietniu Komisja wszczęła dwa postępowania wyjaśniające dotyczące zgodności z przepisami dotyczącymi ochrony dzieci w Internecie na mocy unijnych przepisów dotyczących platform.
2. Ustawa o AI
Europa była pierwszym kontynentem, który wprowadził regulacje: jej ustawa o sztucznej inteligencji próbuje nałożyć rygorystyczne zasady na systemy uczenia maszynowego wysokiego ryzyka i dodaje wymogi przejrzystości w przypadku narzędzi generatywnej sztucznej inteligencji (GenAI), takich jak ChatGPT. Ustawa o sztucznej inteligencji prawdopodobnie wejdzie w życie w czerwcu, będzie jednak za późno, aby wpłynąć na wybory do Parlamentu Europejskiego.
Niemniej jednak wzrosła świadomość zagrożeń związanych z tymi narzędziami. Z badań wynika, że wyborcy w UE są coraz bardziej zaniepokojeni wpływem sztucznej inteligencji na procesy demokratyczne, np. możliwością zwiększenia rozpowszechniania fałszywych informacji i głębokich podróbek, utrudniających odróżnienie rzeczywistości od iluzji.
Próbując zaradzić tym zagrożeniom, platformy takie jak Microsoft, Google i Meta zobowiązały się już do zapobiegania ingerencji w wybory AI w ramach Porozumienia wyborczego AI przedstawionego na Radzie Bezpieczeństwa w Monachium w lutym ubiegłego roku. „W miarę jak społeczeństwo dostrzega korzyści płynące ze sztucznej inteligencji, mamy obowiązek dopilnować, aby narzędzia te nie stały się bronią w wyborach” – powiedział wiceprezes i prezes firmy Microsoft Brad Smith podczas podpisywania umowy.
Zgodnie z wytycznymi Komisji w sprawie GenAI duże platformy internetowe będą musiały na przykład używać znaków wodnych, aby zapewnić użytkownikom oficjalny charakter informacji związanych z procesami wyborczymi. Meta twierdzi, że zawiera już widoczne i niewidoczne znaki wodne dla obrazów tworzonych za pomocą platformy GenAI.
3. DSA
Na mocy ustawy o usługach cyfrowych (DSA), zaproponowanej przez Komisję Europejską w 2020 r., platformy internetowe z ponad 45 milionami średnio miesięcznych użytkowników – w tym Facebook i TikTok – są zobowiązane do podjęcia działań przeciwdziałających dezinformacji i manipulacjom wyborczym. Zasady zaczęły obowiązywać duże firmy z branży Big Tech od sierpnia ubiegłego roku.
Firmy muszą także dysponować narzędziami do moderowania treści, które obejmują możliwość kwestionowania decyzji w przypadku usunięcia lub ograniczenia treści użytkowników, a także zwiększyć przejrzystość dla użytkowników w zakresie warunków korzystania z usługi oraz sposobu, w jaki algorytmy rekomendują treści.
Wiceprzewodnicząca Komisji Europejskiej Margarethe Vestager powiedziała, że wiele debat wyborczych będzie odbywać się w Internecie, a DSA zapewnia narzędzia do współpracy z platformami internetowymi. „Możemy zająć się pojawiającymi się zagrożeniami w Internecie dla procesów wyborczych, takimi jak głębokie fałszerstwa. Dzięki temu możemy umożliwić ludziom bezpieczne angażowanie się, dyskusję i podejmowanie decyzji bez nielegalnej ingerencji” – powiedziała.
Aby umożliwić przedsiębiorstwom przetestowanie zasad, Komisja zorganizowała niedawno (24 kwietnia) test warunków skrajnych dotyczący wytycznych wyborczych DSA.
Organizacje non-profit Mozilla i CheckFirst stwierdziły w badaniu opublikowanym w tym miesiącu (16 kwietnia), że platformy internetowe nie zapewniają wystarczającego wglądu w płatne wpływy i reklamy komercyjne przed czerwcowymi wyborami do Parlamentu Europejskiego. Grupy społeczeństwa obywatelskiego kwestionują również brak moderatorów treści dla niektórych języków UE, takich jak maltański, niderlandzki i estoński; a co za tym idzie, zdolność platform do rzeczywistego powstrzymania dezinformacji publikowanej w tych krajach. Ponadto w DSA nie ma informacji o tym, w jaki sposób moderowane są w UE nieoficjalne języki UE ani treści na przykład w języku rosyjskim lub arabskim.
4. Reklama polityczna
Kolejną zmianę regulacyjną można znaleźć w bardziej rygorystycznych przepisach dotyczących reklamy politycznej. W lutym ubiegłego roku Parlament Europejski zatwierdził przepisy dotyczące takich reklam, mające na celu ograniczenie obcej ingerencji, zwłaszcza w Internecie. Zgodnie z tymi ramami sponsorzy z krajów trzecich nie będą mogli płacić za reklamy polityczne w UE w okresie trzech miesięcy poprzedzających wybory lub referendum.
Zabronione będą także reklamy polityczne oparte na profilowaniu i wykorzystaniu danych osób nieletnich. Ponadto każda reklama polityczna będzie musiała być wyraźnie oznaczona i zawierać informacje, kto za nią zapłacił i ile kosztowała.
W 2021 r. Komisja Europejska przedstawiła plany zwiększenia przejrzystości reklamy politycznej w ramach działań mających na celu ochronę integralności wyborów. Jednakże grupy społeczeństwa obywatelskiego, w tym Access Now, obawiają się, że przepisy weszły za późno, aby chronić nadchodzące głosowanie w sprawie UE; ponadto informacje np. o tym, kto płaci za reklamę, dostarczane są wyłącznie w drodze oświadczenia grup politycznych.
„Miejmy nadzieję, że środki przejrzystości przewidziane w nowym prawie zapobiegną manipulacji wyborcami i ochronią dane osobowe obywateli przed nadużyciami w nadchodzących latach, ale nie będą miały dużego wpływu na wybory europejskie w 2024 r. – co sprawi, że będzie to stracona szansa, aczkolwiek z potencjałem na przyszłość ” – napisano w oświadczeniu prasowym.
Ze swojej strony firmy zajmujące się mediami społecznościowymi TikTok i Meta ogłosiły w tym miesiącu środki mające na celu zwalczanie dezinformacji. Meta oświadczyła na przykład, że zapewni, że reklamodawcy wyświetlający za jej pośrednictwem reklamy związane z wyborami będą musieli ujawnić, czy wykorzystują sztuczną inteligencję lub fałszywe obrazy.