Rok 2024 nie jest starym rokiem dla polityki. Może tak być the rok dla polityki.
A kiedy po bez wątpienia burzliwym roku opadnie kurz, spojrzymy wstecz i zadamy sobie pytanie: jak, u licha, tu dotarliśmy? Tak, rok 2024 może być rokiem polityki, ale w tej nowonarodzonej erze generatywnej sztucznej inteligencji może to być również rok, w którym dezinformacja w Internecie w końcu nas pokona.
Kluczowe wybory odbędą się w Wielkiej Brytanii, USA, UE, Indiach, Republice Południowej Afryki, Meksyku i wielu innych krajach, a w tym roku do urn pójdzie prawie połowa dorosłej populacji świata. Ale nawet poza samą liczbą odbywających się wyborów, w powietrzu unosi się wrażenie, że stawka nigdy nie była tak wysoka. Widzimy rosnące podziały polityczne i walki frakcyjne w wielu krajach i istnieje silne poczucie – nie dzięki światu online, w którym wszyscy teraz żyjemy – że stajemy się bardziej spolaryzowani, bardziej plemienni i bardziej nietolerancyjni wobec „ druga strona.”
Niezależnie od tego, w którą stronę wiają polityczne wiatry w tym roku, nie dajcie się zwieść – wyniki tych wyborów będą miały głęboki wpływ na przyszłość nie tylko każdego narodu, ale także całego świata.
W czasach, gdy polityka nigdy nie była bardziej niepewna, to samo można powiedzieć o technologii. Nigdy wcześniej narzędzia oparte na sztucznej inteligencji nie były bardziej wyrafinowane, powszechne i dostępne dla społeczeństwa.
Generatywna sztuczna inteligencja w najszerszym znaczeniu odnosi się do modeli głębokiego uczenia się, które mogą generować wyrafinowany tekst, wideo, dźwięk, obrazy i inne treści w oparciu o dane, na których zostały przeszkolone. Niedawne wprowadzenie tych narzędzi do głównego nurtu — w tym modeli językowych i twórców obrazów — sprawiło, że tworzenie fałszywych lub wprowadzających w błąd treści jest niezwykle łatwe, nawet dla osób posiadających najbardziej podstawowe umiejętności techniczne.
Wkroczyliśmy w nową erę technologiczną, która na zawsze zmieni nasze życie – miejmy nadzieję, że na lepsze. Jednak pomimo powszechnego podziwu opinii publicznej dla jej możliwości, musimy również mieć świadomość, że ta potężna technologia może wyrządzić niesamowite szkody, jeśli będzie źle zarządzana i nadużywana.
W przypadku złych aktorów generatywna sztuczna inteligencja doładowała podręcznik dezinformacji i propagandy. Za pomocą tych narzędzi można teraz bez wysiłku tworzyć fałszywe i oszukańcze treści, bezpłatnie lub za niewielką opłatą, i rozpowszechniać je na masową skalę w Internecie. Coraz częściej ekosystem internetowy, będący źródłem większości naszych wiadomości i informacji, jest zalewany sfabrykowanymi treściami, które coraz trudniej odróżnić od rzeczywistości. Deepfake – wykorzystujące sztuczną inteligencję do zastąpienia, zmiany lub naśladowania osoby w obrazie lub dźwięku – budzą szczególne obawy ze względu na ich coraz bardziej realistyczny charakter.
Nadchodzące wybory na całym świecie niewątpliwie znajdą się na szczycie listy hitów dezinformacji w 2024 roku.
Media społecznościowe są głównym wektorem dezinformacji w Internecie, a ponieważ prawie 5 miliardów z nas korzysta obecnie z tych platform, opinia publiczna jest w dużym stopniu podatna na manipulację. A co z politykami i partiami politycznymi? Jest na nich sezon otwarty. Czy szukasz zdjęcia byłego prezydenta USA Donalda Trumpa, być może przedstawiającego go walczącego z aresztowaniem? Bez problemu. A może nagranie głosowe, na którym przywódca brytyjskiej Partii Pracy Keir Starmer werbalnie znieważa swój personel? Łatwy.
Te przykłady nie są po prostu możliwe, miały już miejsce i zgromadziły miliony odsłon w Internecie w 2023 r. Czy możesz sobie wyobrazić scenariusz, w którym fałszywe i szkodliwe nagranie wideo lub audio ląduje tuż przed dniem wyborów i nie ma możliwości jego obalenia? To również się wydarzyło. Zaledwie dwa dni przed ostatnimi wyborami powszechnymi na Słowacji w Internecie krążyło fałszywe nagranie audio lidera partii Postępowej Słowacji Michala Šimečki omawiającego, jak sfałszować wybory.
Ponieważ poprzeczka szerzenia przekonującej dezinformacji jest obecnie znacznie obniżona, wszystko to może stanowić zapowiedź tego, co ma nadejść.
Oczywiście istnieje mocny argument mówiący, że dezinformacja – i szerzej dezinformacja – wywarła już powszechny wpływ na poprzednie wybory. Być może przychodzą mi na myśl niektóre z bliższych wyników uzyskanych zaledwie kilkoma punktami procentowymi. Chociaż dezinformacja oparta na sztucznej inteligencji nie jest niczym nowym, w poprzednich latach media syntetyczne, takie jak deepfake, były znacznie mniej zdemokratyzowane i znacznie łatwiejsze do wykrycia. Tym razem w mieście pojawiła się nowa broń polityczna, a w 2024 r. po raz pierwszy w niektórych z największych demokracji na świecie odbędą się wybory ogólnokrajowe, których wyborcy będą na celowniku.
W tym momencie przesądzony jest fakt, że dezinformacja oparta na sztucznej inteligencji będzie narastać w miarę zbliżania się wyborów, a mimo to w dużej mierze nie jesteśmy na to przygotowani. Chociaż jesteśmy świadkami nieubłaganego wyścigu zbrojeń Big Tech w celu opracowania najinteligentniejszej sztucznej inteligencji ery cyfrowej, nasze prawa i regulacje mocno tkwią w epoce analogowej.
Odnotowano pewien postęp, ale to nie wystarczy: Google i Meta ogłosiły zasady wymagające w kampaniach ujawniania reklam politycznych, które zostały zmienione cyfrowo. TikTok wymaga, aby treści generowane przez sztuczną inteligencję były odpowiednio oznaczone. W Stanach Zjednoczonych prezydent Joe Biden przedstawił propozycje zarządzania ryzykiem związanym ze sztuczną inteligencją, w tym obowiązek uwierzytelniania i znakowania wodnego treści generowanych przez sztuczną inteligencję. Unijny akt prawny o usługach cyfrowych nakłada na platformy internetowe obowiązek ograniczania ryzyka dezinformacji i usuwania mowy nienawiści.
Tymczasem w Wielkiej Brytanii nowo wprowadzona ustawa o bezpieczeństwie w Internecie z 2023 r., wspierana przez organ regulacyjny ds. mediów Ofcom, nakłada na platformy internetowe nowe obowiązki dotyczące usuwania nielegalnych treści, gdy tylko się o nich dowiedzą. Choć jednak ustawa obejmuje przestępstwa priorytetowe – takie jak przestępstwo związane z ingerencją zagraniczną, które dotyczy szkodliwej działalności w Internecie prowadzonej przez obce mocarstwa (na przykład sponsorowane przez państwo kampanie dezinformacyjne) – w dużej mierze nie uwzględnia ona w odpowiedni sposób rozprzestrzeniania się szkodliwej dezinformacji i dezinformacji w szerszym kontekście .
Konkluzja jest następująca: samoregulacja platform mediów społecznościowych zawsze będzie wiązać się z wyzwaniami; ustawodawstwo – niezależnie od tego, jak kompleksowe będzie ostatecznie w skali kraju – będzie wymagało pełnej globalnej koordynacji i skutecznego egzekwowania, co z kolei będzie wymagało wystarczającego finansowania i woli politycznej; a obecnie dostępne narzędzia do sprawdzania faktów i wykrywania sztucznej inteligencji nie są wystarczająco zaawansowane. W rzeczywistości obecne reżimy ledwo zarysowują problemy, przed którymi stoimy, ponieważ środki bezpieczeństwa nie nadążają za pojawiającymi się technologiami.
Chociaż istnieją uzasadnione powody do niepokoju, nie musimy wpadać w panikę – po prostu musimy być przygotowani.
Podnoszenie świadomości społecznej i nadanie priorytetu umiejętności korzystania z mediów musi być koniecznością. Musimy zrozumieć, jak potężna jest sztuczna inteligencja i jak przekonująca może być. Musimy zdać sobie sprawę, że treści te można tworzyć łatwo, szybko i przy niewielkich lub żadnych kosztach finansowych. Musimy pamiętać, że treści te znajdują się już w naszym ekosystemie informacyjnym i prawdopodobnie będą coraz bardziej powszechne w miarę zbliżania się każdego dnia wyborów. Musimy zaakceptować fakt, że nikt nie jest odporny na bycie oszukanym.
Jeśli jesteśmy świadomi zagrożenia i jego możliwości, możemy lepiej przygotować się do radzenia sobie z nim lub przynajmniej złagodzić jego skutki. Sprawdź, czy nie ma błędów lub niespójności, zobacz, czy nie ma nietypowych wzorców językowych lub formatowania, rozważ emocjonalny ton i, jak zawsze, sprawdź fakty. Sprawdź legalność źródła, szukaj potwierdzenia i nigdy nie zapominaj o swoich istniejących uprzedzeniach.
Dżin generatywnej sztucznej inteligencji jest już w pełni gotowy do działania. Ta nowa forma dezinformacji może zmienić wyniki wyborów w 2024 r. i podważyć demokrację, jaką znamy. Jeśli więc mamy mieć szansę, musimy unikać lunatykowania przy urnach i zachować czujność wobec tego, co ma nadejść.