O nas
Kontakt

Brytyjscy parlamentarzyści obawiają się, że nie możemy powstrzymać głębokich fałszerstw wyborczych. Mają rację.

Laura Kowalczyk

Brytyjscy parlamentarzyści obawiają się, że nie możemy powstrzymać głębokich fałszerstw wyborczych.  Mają rację.

LONDYN – Posłowie panikują, że deepfake oparte na sztucznej inteligencji mogą wpłynąć na nadchodzące wybory powszechne w Wielkiej Brytanii. Prawdopodobnie mają rację.

Strach nasilił się w ostatnich miesiącach, gdy premier Rishi Sunak, przywódca Partii Pracy Keir Starmer i burmistrz Londynu Sadiq Khan zobaczyli, jak ich tożsamość została sfałszowana w fałszywych klipach wideo lub audio.

„To jeden z tych momentów, w których stwierdza się, że przyszłość już nadeszła” – powiedział TylkoGliwice były sekretarz sprawiedliwości Robert Buckland, dodając, że konieczna będzie „kombinacja” odpowiedzi.

Mimo to „nie wyeliminują ani nie zminimalizują ryzyka, jak sądzę, w takim stopniu, w jakim, jak wiecie, możemy przystąpić do tych wyborów bez obaw” – powiedział.

Chociaż firmy technologiczne, eksperci i organy regulacyjne dostrzegają ryzyko, że generowane przez sztuczną inteligencję deepfakes mogą mieć wpływ na cykl wyborczy w 2024 r., zarządzają również oczekiwaniami dotyczącymi tego, ile można zrobić.

Zamiast obiecywać złoty środek, podkreślają, że społeczeństwo będzie musiało hurtowo dostosować się do tej nowej normalności – nawet jeśli będzie to oznaczać, że kilka deepfake’ów przedostanie się do sieci.

Kiedy w październiku zeszłego roku w Internecie zaczął rozprzestrzeniać się zmanipulowany klip przedstawiający Keira Starmera, eksperci szybko uznali go za fałszywy nawet rywalizujący ze sobą politycy.

Jednak X, dawniej Twitter, odmówił jego usunięcia, twierdząc, że nie może potwierdzić, że klip – pochodzący nie od wrogiego obcego państwa, ale od członka społeczeństwa – jest niezgodny z prawem.

Incydent, który zirytował wyższe szczeble Partii Pracy, ujawnił wiele wyzwań związanych ze zwalczaniem politycznych oszustw, które nie wchodzą w zakres kompetencji jednego organu.

Aby wpłynąć na wynik wyborów, może wystarczyć coś więcej niż fałszywe fałszywe informacje, ale „większym zagrożeniem jest szerszy, bardziej podstępny wpływ na postrzeganą legalność tych wyborów i zaufanie, jakim ludzie darzą ich wynik” – powiedział Rory Cormac, specjalista ds. międzynarodowych profesor stosunków na Uniwersytecie w Nottingham, przemawiający w zeszłym tygodniu przed komisją parlamentarną.

„Zagrożenie jest chroniczne. Jest destrukcyjny, wywrotowy i żywi się naszymi wewnętrznymi podziałami”.

Chociaż niektóre przestępstwa obejmują fałszywe oświadczenia na temat polityków, można je ścigać jedynie w ramach notorycznie zalegającego systemu sądowego w Wielkiej Brytanii – przy założeniu, że policja może najpierw zidentyfikować sprawcę.

„To jeden z tych momentów, w których stwierdza się, że przyszłość już nadeszła” – powiedział TylkoGliwice były sekretarz sprawiedliwości Robert Buckland, dodając, że konieczna będzie „kombinacja” odpowiedzi. | Isabel Infantes/AFP za pośrednictwem Getty Images

Tymczasem brytyjska ustawa o bezpieczeństwie w Internecie będzie ostatecznie wymagać od platform mediów społecznościowych ograniczenia szkodliwych treści i egzekwowania warunków korzystania z usług, z których większość zabrania kłamstw politycznych, czemu towarzyszy groźba znacznych kar.

Jednak ustawa nie zostanie w pełni wdrożona przez lata – w przeciwieństwie do unijnej ustawy o usługach cyfrowych, która daje władzom uprawnienia do nakładania kar na platformy mediów społecznościowych, które nie radzą sobie z dezinformacją wyborczą.

Nawet wtedy ustawa, która weszła do brytyjskiego statutu w październiku dopiero po intensywnych sporach partii torysów w związku z obawami dotyczącymi wolności słowa, celowo nie miała na celu przyznania organowi regulacyjnemu Ofcom uprawnień do „zdejmowania” określonych treści.

W szczególności prawicowi torysi obawiali się, że takie posunięcie będzie oznaczać nadmierne działania rządu. Inni obecnie ubolewają nad tym, uznając to za „straconą szansę”.

Zamiast tego dyrektorka ds. polityki bezpieczeństwa w Internecie w Ofcom, Jessica Zucker, powiedziała w zeszłym tygodniu komisji parlamentarnej, że przyjmuje ona „wieloaspektowe podejście” do dezinformacji, w tym kampanie na rzecz umiejętności czytania i pisania oraz regularne kontakty z firmami technologicznymi.

„Niestety nie ma tu złotego środka” – stwierdziła.

Inne organy regulacyjne również rozważają, w jaki sposób mogą przyczynić się do tej walki. Żaden nie oferuje łatwego rozwiązania.

Brytyjska Komisja Wyborcza, która egzekwuje zasady finansowania kampanii, wezwała do przyznania organom regulacyjnym większych uprawnień w zakresie monitorowania internetowych kampanii wywierania wpływu.

Zauważa jednak, że przyznanie władzom uprawnień do wpływania na treść materiałów kampanii wymagałoby „nowych ram prawnych” – co jest trudnym zadaniem, jeśli parlament dzieliby się na kilka miesięcy od zaciętej walki wyborczej.

Biuro Komisarza ds. Informacji, brytyjski organ nadzorujący ochronę danych, aktywnie konsultuje się na temat stosowania przepisów o ochronie danych do opracowywania i wykorzystywania generatywnej sztucznej inteligencji.

Istnieją sugestie, że ograniczenia dotyczące wykorzystania danych biometrycznych – w tym głosu i podobieństwa danej osoby – mogłyby zostać nałożone przeciwko twórcom deepfakes.

Sprawy dotyczące ochrony danych są zazwyczaj przeciągane, jednak wnoszone są przeciwko pozbawionym skrupułów firmom technologicznym, a nie niezadowolonym trollom.

Strach nasilił się w ostatnich miesiącach, gdy premier Rishi Sunak, przywódca Partii Pracy Keir Starmer i burmistrz Londynu Sadiq Khan zobaczyli, jak ich tożsamość została sfałszowana w fałszywych klipach wideo lub audio. | Zdjęcie basenu: Carl Recine za pośrednictwem WPA/Getty Images

Stephen Almond, dyrektor ds. technologii i innowacji w ICO, powiedział w zeszłym miesiącu, że istnieje potrzeba „zarządzania oczekiwaniami… co do zakresu, w jakim prawo o ochronie danych będzie najskuteczniejszym narzędziem do zwalczania deepfakes”, zauważając, że zasady raczej nie okaże się skuteczny, „jeśli mówimy o aktorze państwowym lub działaczach na strychach”.

Więcej środków politycznych mogłoby wyniknąć z konsultacji rządowych w sprawie zaufania społeczeństwa do informacji, które mają się rozpocząć „wkrótce”.

Na przykład urzędnicy z Urzędu Własności Intelektualnej oraz Departamentu Kultury, Mediów i Sportu badają, czy nowe „prawo osobiste” mogłoby zapewnić osobom publicznym większą ochronę w przypadku treści naśladujących ich głos lub podobieństwo.

Jednakże przedstawienie jakichkolwiek istotnych propozycji przed wyborami byłoby prawie niemożliwe, biorąc pod uwagę, że konsultacje i stanowienie prawa dotyczącego nowego ustawowego prawa mogą zająć kilka miesięcy.

Wobec braku rozwiązań politycznych ministrowie wezwali firmy technologiczne do podjęcia działań.

Rzeczywiście firmy takie jak Meta, Google i OpenAI określiły środki, które wdrażają, aby zapewnić, że ich narzędzia i platformy nie zostaną wykorzystane przez złych aktorów, począwszy od moderowania treści po wymogi dotyczące ujawniania informacji i narzędzia, które dodają niewidoczne znaczniki do treści generowanych przez sztuczną inteligencję.

Wraz z kilkoma największymi firmami technologicznymi na świecie zobowiązali się w zeszłym miesiącu do „walki z oszukańczym wykorzystaniem sztucznej inteligencji w wyborach w 2024 r.”.

„Myślę, że w pewnym stopniu skupiono się na tym, co nazywam „akcją po wydarzeniu”, wiesz, sprzątaniu bałaganu po wyrządzeniu szkód, co oczywiście nie będzie miało większego wpływu na sedno tej sprawy. ” – powiedział Buckland, podkreślając, że kluczowe mogą być narzędzia umożliwiające śledzenie, skąd pochodzą treści i w jaki sposób zostały zmanipulowane.

„Jeśli będziemy w stanie wykonać więcej działań zapobiegawczych, ryzyko, że ktoś w tylnej sypialni w Basingstoke stworzy deepfake, który w ciągu kilku sekund stanie się wirusowy, będzie mniejsze”.

Jednak poprawki techniczne mają swoje granice – fakt ten podkreślono w naleganiu sygnatariuszy, że konieczna będzie „reakcja całego społeczeństwa”, aby stawić czoła zagrożeniom stwarzanym przez sztuczną inteligencję.

„Nie jest jeszcze możliwe zidentyfikowanie wszystkich treści generowanych przez sztuczną inteligencję, a istnieją sposoby, dzięki którym można usunąć niewidzialne znaczniki” – podkreślił Nick Clegg, prezes ds. spraw globalnych w Meta.

„Nie jest jeszcze możliwe zidentyfikowanie wszystkich treści generowanych przez sztuczną inteligencję, a istnieją sposoby, dzięki którym można usunąć niewidzialne znaczniki” – podkreślił Nick Clegg, prezes ds. spraw globalnych w Meta. | Daniel Leal/AFP za pośrednictwem Getty Images

Według Henry'ego Ajdera, konsultanta ds. dezinformacji współpracującego z rządami i firmami technologicznymi, poprawki techniczne, takie jak znak wodny, wykrywanie sztucznej inteligencji i śledzenie pochodzenia, mają wady. Na przykład znaku wodnego można łatwo uniknąć, zmieniając lub kompresując obraz, a obecnie nie ma to zastosowania w przypadku plików audio i wideo.

Zamiast tego „można o tym pomyśleć tak, aby maksymalnie utrudnić tworzenie i rozpowszechnianie tych treści” – powiedział Adjer.

Chociaż środki techniczne mogą stawiać przeszkody przed awanturnikami, którzy chcą siać chaos, żaden z nich nie rozwiąże głębokich problemów społecznych związanych z brakiem zaufania, ostrzegł Ajder.

Rory Cormac, profesor Uniwersytetu w Nottingham, zgadza się z tym.

Źli aktorzy wykorzystują „istniejące schizmy i podziały w społeczeństwie” – Cormac powiedział TylkoGliwice.

„Jeśli więc chcemy się przed tym bronić, musimy także spróbować rozwiązać niektóre z naszych wewnętrznych słabości”.

Niektórzy, jak zespół doradców Demos i stowarzyszona z Partią Pracy grupa Labor Together, chcą, aby partie polityczne dawały przykład i zobowiązały się nie używać sztucznej inteligencji w zwodniczy sposób podczas nadchodzących wyborów.

Nawet jeśli starzy wrogowie się zarejestrują, trolle internetowe i złośliwe państwa tego nie zrobią.

„Deepfakes mogą nie znajdować się na szczycie listy wszystkich, ale jeśli w rzeczywistości tego rodzaju działania wpływają na wynik wyborów na szczeblu lokalnym lub krajowym, stanie się to naszą odpowiedzialnością i stanie się kwestią, która będzie niepokoić i niepokoić bardziej więcej ludzi” – powiedział Buckland, wskazując, że technologia ta miała już wpływ na wybory za granicą.

„A więc to jest prawdziwe. To się dzieje teraz.”