O nas
Kontakt

Generatywna sztuczna inteligencja napędza rozprzestrzenianie się fałszywej porno w Internecie

Laura Kowalczyk

Generatywna sztuczna inteligencja napędza rozprzestrzenianie się fałszywej porno w Internecie

Analiza wykazała, że ​​przeważająca większość fałszywych filmów znalezionych w Internecie to treści pornograficzne.

Według jednej z analiz liczba filmów pornograficznych typu deepfake znalezionych w Internecie wzrosła w tym roku o 550% w porównaniu z 2019 rokiem, przy czym zdecydowana większość z nich to filmy pornograficzne typu deepfake.

Rozwój nowych technologii, takich jak sztuczna inteligencja generacyjna (AI), doprowadził do znacznego wzrostu liczby utworzonych fałszywych treści, czyli cyfrowo zmienionych lub generowanych treści mających rzekomo przedstawiać prawdziwą osobę lub scenariusz. , czy to za pomocą wideo, obrazu czy dźwięku. .

Ofiary fałszywej pornografii opisują, jak zobaczenie siebie przedstawionego w tych fikcyjnych scenariuszach może zniszczyć życie, niektórzy nazywają to „wyrokiem dożywocia”.

Treści typu deepfake tworzone są za pomocą algorytmów uczenia maszynowego, które mogą tworzyć treści hiperrealistyczne. Źli aktorzy mogą go używać do atakowania swoich ofiar, szantażowania ludzi lub jako forma manipulacji kryminalnej lub politycznej.

Obszerny raport na temat deepfakes opublikowany w 2023 roku wykazał, że 98% wszystkich filmów deepfake znalezionych w Internecie stanowi pornografia deepfake, a 99% ofiar będących celem deepfake porno to kobiety.

Analitycy strony internetowej o nazwie homesecurityheroes.com, której zadaniem jest ochrona ludzi przed oszustwami dotyczącymi tożsamości w Internecie, przestudiowali 95 820 filmów typu deepfakes, 85 dedykowanych kanałów internetowych i ponad 100 stron internetowych powiązanych z ekosystemem deepfake, tworząc raport o stanie Deepfakes za rok 2023.

Jednym z kluczowych wniosków płynących z raportu jest to, że utworzenie jednominutowego, fałszywego filmu pornograficznego przedstawiającego jakąkolwiek osobę, wykorzystującego pojedynczy wyraźny obraz twarzy ofiary, zajmuje obecnie mniej niż 25 minut i nic nie kosztuje.

Większość fałszywych filmów porno przeanalizowanych przez witrynę przedstawiała kobiety z Korei Południowej. Narodami, które są najliczniej reprezentowanymi pod względem ofiar fałszywej pornografii po Korei Południowej, są Stany Zjednoczone, Japonia i Wielka Brytania.

Epidemia deepfake porno w Korei Południowej

Korea Południowa jest zdecydowanie narodem, w którym znajduje się najwięcej ofiar deepfake porno, co analitycy raportu przypisują globalnej popularności K-popu. Trzy z czterech członkiń Blackpink, uważanej za największą kobiecą grupę popową w Korei, znajdują się w pierwszej dziesiątce najczęściej atakowanych osób.

„Idole K-popu są znani ze swojej dużej widoczności i popularności wśród fanów, zarówno w Korei Południowej, jak i za granicą” – wyjaśnił Chris Nguyen, szef analizy analiz raportu. „Ich publiczne profile i duża baza fanów oznaczają, że tworzenie i dystrybucja fałszywej pornografii z ich udziałem z większym prawdopodobieństwem dotrze do szerszej publiczności.

Nguyen stwierdziła, że ​​oprócz ich dużej widoczności istnieje również „wyjątkowo duże” zapotrzebowanie na treści przedstawiające idoli K-popu. „Niektórzy wykorzystują to zapotrzebowanie, tworząc jawne fałszywe treści, szczególnie na stronach dla dorosłych, próbując przyciągnąć uwagę i wygenerować większy ruch”.

Podkreślił również, że w tworzeniu i dystrybucji tego typu treści prawdopodobnie odegrały rolę rygorystyczne przepisy Korei Południowej dotyczące pornografii.

„Można to powiązać z „efektem Streisanda”, niezamierzonym skutkiem próby ukrycia, zatajenia lub cenzurowania informacji. W takich przypadkach efektem jest reakcja, ponieważ w rzeczywistości zwiększa to świadomość i zainteresowanie tą informacją. »

Deepfakes rozprzestrzeniają się w Internecie

Analizując rozpowszechnienie fałszywej pornografii, analitycy odkryli, że siedem z dziesięciu najczęściej odwiedzanych witryn pornograficznych zawierało fałszywe treści.

W dziesięciu najpopularniejszych witrynach poświęconych fałszywej pornografii odnotowano ponad 303 miliony wyświetleń filmów, co zdaniem analityków pokazuje, jak powszechne i popularne są te treści.

Wzywają do dyskusji na temat postaw wobec tego typu treści, ze szczególnym uwzględnieniem względów etycznych związanych z tworzeniem tych treści.

Badacze przypisują nagły wzrost liczby fałszywych treści dwóm czynnikom. Po pierwsze, pojawienie się pewnego rodzaju platformy uczenia maszynowego wykorzystywanej na potrzeby generatywnej sztucznej inteligencji, zwanej generatywną siecią kontradyktoryjną (GAN), zapewniło środki techniczne niezbędne do tworzenia fałszywych treści.

Po drugie, łatwy dostęp do narzędzi zbudowanych w oparciu o sieci GAN oznacza, że ​​prawie każdy może szybko i niedrogo tworzyć treści typu deepfake.

„Platformy te oferują szereg funkcji, od prostej zamiany twarzy po bardziej złożone manipulacje wideo” – wyjaśnia raport. Autorzy dodają, że rozwój społeczności internetowych zajmujących się tworzeniem deepfakes „wspiera współpracę, dzielenie się wiedzą i rozwój projektów open source”.