O nas
Kontakt

„Naruszanie i odczłowieczanie”: jak fałszywe fałszywe informacje AI są wykorzystywane do atakowania kobiet

Laura Kowalczyk

„Naruszanie i odczłowieczanie”: jak fałszywe fałszywe informacje AI są wykorzystywane do atakowania kobiet

Eksperci opisują wykorzystywanie wizerunków osób do tworzenia deepfake’ów przy użyciu sztucznej inteligencji (AI) bez ich zgody jako „odczłowieczające”.

Technologia Deepfake zyskała na popularności w ciągu ostatnich kilku lat, a jej tworzenie nigdy nie było łatwiejsze, a ludzie potrafią przetwarzać wideo i audio w hiperrealistyczny sposób.

Aby stworzyć deepfake, wystarczy kilka zdjęć czyjejś twarzy.

Niektórzy używają go dla zabawy, ponieważ stanowi podstawę aplikacji do zamiany twarzy i wielu filtrów w mediach społecznościowych, ale istnieje również kilka złośliwych zastosowań, od fałszywych filmów przedstawiających polityków po oszustwa.

Kobiety są szczególnie celem fałszywej pornografii, która często jest rozpowszechniana bez zgody.

W 2019 roku Deeptrace, firma specjalizująca się w sztucznej inteligencji (AI), oszacowała, że ​​96% filmów typu deepfake stanowiła pornografia, z czego zdecydowana większość powstała bez zgody prezentowanej osoby.

„To jest naruszenie. To jest odczłowieczanie. Prawda jest taka, że ​​wiemy, że może to mieć wpływ na szanse danej osoby na zatrudnienie. Może to mieć wpływ na relacje międzyludzkie i zdrowie psychiczne danej osoby” – stwierdziła Noelle Martin, aktywistka i badaczka na University of Western Australia, która od dziesięciu lat zajmuje się nadużyciami wizerunkowymi.

W jednym z najnowszych przypadków celem były 11-letnie dziewczęta, a zdjęcia udostępniono ich kolegom ze szkoły średniej za pośrednictwem mediów społecznościowych.

Zjawisko skierowane do kobiet

Zjawisko deepfakes zostało po raz pierwszy zaobserwowane w 2017 r. na specjalistycznych forach, takich jak Reddit, których celem były celebrytki ze względu na dużą liczbę obrazów dostępnych w sieci.

„Jednym z najbardziej niepokojących trendów, jakie widzę na forach osób tworzących te treści, jest to, że uważają to za żart lub nie uważają, że to coś poważnego, ponieważ wyniki nie są hiperrealistyczne, nie rozumiejąc, że dla ofiar jest to nadal naprawdę, naprawdę bolesne i traumatyczne” – powiedział Henry Ajder, ekspert w dziedzinie generatywnej sztucznej inteligencji.

Jednak teraz, gdy technologia staje się coraz szerzej dostępna, wszystkie kobiety obawiają się poważnych konsekwencji społecznych i psychologicznych.

„To przerażające i szokujące widzieć siebie przedstawianego w sposób, na który się nie wyraziłeś” – powiedział Martin.

„Rzeczywistość jest taka. Wiemy, że może to mieć wpływ na szanse danej osoby na zatrudnienie. Może to mieć wpływ na relacje międzyludzkie i zdrowie psychiczne” – dodała.

Czasami deepfakes powstają w celu zdyskredytowania pracy kobiet.

Aktywistka Kate Isaacs i dziennikarka Rana Ayyub padły ofiarami kampanii oszczerstw wykorzystujących deepfake w związku z ich działalnością zawodową.

Co więcej, wykrycie deepfake’a nie jest łatwe, zwłaszcza w obliczu udoskonalenia technologii.

„Realistycznie rzecz biorąc, osoba i jej gołe oko nie będą wiarygodnym wskaźnikiem pozwalającym wykryć podróbki. Nawet teraz, ale szczególnie w przyszłości, gdy jakość wyników będzie lepsza” – powiedział Ajder.

W niedawnym ogłoszeniu o usługach publicznych Federalne Biuro Śledcze Stanów Zjednoczonych (FBI) stwierdziło, że w dalszym ciągu „otrzymują raporty od ofiar, w tym nieletnich dzieci i dorosłych, którzy nie wyrazili na to zgody, których zdjęcia lub filmy zostały zamienione w treści dla dorosłych”.

Zdarzały się nawet przypadki, w których do wyłudzania ludzi wykorzystywano deepfake porno.

„W kwietniu 2023 r. FBI zaobserwowało wzrost liczby ofiar przestępstw na tle seksualnym zgłaszających wykorzystanie fałszywych obrazów lub filmów utworzonych na podstawie treści publikowanych w ich serwisach społecznościowych lub wpisach internetowych, udostępnianych złośliwemu podmiotowi na żądanie lub uchwyconych podczas rozmów wideo, „ – czytamy w ogłoszeniu.

Przestępstwa pozostają bezkarne

Trudne do wykrycia deepfakes są również trudne do ścigania, ponieważ prawodawcy próbują nadrobić zaległości w technologii.

Pod koniec 2022 r. Ministerstwo Sprawiedliwości Wielkiej Brytanii stwierdziło, że udostępnianie deepfakes bez zgody danej osoby może skutkować karą pozbawienia wolności. Tajwan również wdrożył podobną ustawę.

W Europie ustawa o usługach cyfrowych (DSA) nie reguluje kwestii fałszywych fałszywych informacji za zgodą użytkownika. Jednak unijna ustawa o sztucznej inteligencji, której projekt właśnie zakończył się w trakcie negocjacji, powinna zapewniać solidniejsze ramy prawne.

W Stanach Zjednoczonych kilka stanów, w tym Kalifornia, Teksas i Wirginia, uznało deepfake dokonywane bez zgody za przestępstwo.

„Musi nastąpić jakaś globalna reakcja ze strony rządu, organów ścigania, ludzi na miejscu i społeczności ofiar. Zatem odpowiedzialność spoczywa na ludziach, gdy nie mogą po prostu zrujnować czyjegoś życia i uszło to na sucho bez ponoszenia konsekwencji, – powiedział Marcin.

Więcej informacji na temat tej historii można znaleźć w filmie w odtwarzaczu multimedialnym powyżej.