O nas
Kontakt

„Społeczeństwo musi być czujne”: większość ludzi nie zdaje sobie sprawy, że sztuczna inteligencja jest wykorzystywana do tworzenia treści przedstawiających przedstawianie przemocy wobec dzieci

Laura Kowalczyk

There have been a rising number of reports about AI-generated child sex abuse material, according to a UK charity.

Według brytyjskiej organizacji charytatywnej rośnie liczba raportów na temat materiałów przedstawiających wykorzystywanie seksualne dzieci generowanych przez sztuczną inteligencję.

Chociaż większość ludzi obawia się sztucznej inteligencji (AI), około 70 procent nie ma świadomości, że jest ona już wykorzystywana do tworzenia treści przedstawiających wykorzystywanie seksualne dzieci – wynika z nowego badania.

Fundacja Lucy Faithfull, brytyjska organizacja charytatywna zajmująca się ochroną dzieci, przeprowadziła ankietę wśród ponad 2500 osób w Wielkiej Brytanii i około 88 procent ankietowanych zgodziło się, że obrazy seksualne osób poniżej 18 roku życia generowane przez sztuczną inteligencję powinny być nielegalne.

Jednak zaledwie 40 procent ankietowanych albo nie wiedziało, że tak jest, albo uważało, że takie treści są legalne w Wielkiej Brytanii.

W UE i Wielkiej Brytanii tworzenie, przeglądanie i udostępnianie obrazów o charakterze seksualnym przedstawiających nieletnich, w tym materiałów utworzonych przy użyciu technologii sztucznej inteligencji, jest nielegalne.

Jest to sposób na seksualizację dzieci. Dzieci zasługują na nasz szacunek. Mają prawa. Nie wolno nam deptać ich praw, gdyż pociągają za sobą konsekwencje

Donalda Findlatera

Dyrektor infolinii Stop It Now

Brytyjska organizacja charytatywna, która prowadzi także infolinię Stop It Now, poufną usługę pomagającą osobom zaniepokojonym swoimi myślami i zachowaniem wobec dzieci lub zachowaniem innej osoby dorosłej, podnosi alarm.

Donald Findlater, dyrektor infolinii, podkreślił, że szybki rozwój sztucznej inteligencji jest już codziennie wykorzystywany w Internecie przez przestępców seksualnych wobec dzieci.

„Każdego dnia dzwonią do nas osoby aresztowane przez policję w Wielkiej Brytanii za oglądanie wykorzystywania seksualnego dzieci, w tym coraz większa liczba osób oglądających obrazy generowane przez sztuczną inteligencję” – powiedział TylkoGliwice Next, wyjaśniając, że doszło do wzrost liczby zgłoszeń dotyczących materiałów przedstawiających wykorzystywanie seksualne dzieci generowanych przez sztuczną inteligencję w ciągu ostatniego roku.

„Społeczeństwo musi zwracać uwagę na tę kwestię” – stwierdził, ponieważ w społeczeństwie istnieją „poważne luki w wiedzy” na temat sposobu wykorzystywania sztucznej inteligencji do tworzenia szkodliwych treści.

„Patrzenie na te obrazy nie jest w porządku. Jest to sposób na seksualizację dzieci. Nie jest to właściwe postępowanie. Dzieci zasługują na nasz szacunek. Mają prawa. Nie możemy deptać ich praw, bo pociągają za sobą konsekwencje” – dodał, zapraszając osoby bezpośrednio lub pośrednio zainteresowane do szukania pomocy.

W 2023 r. z infolinii Stop It Now skontaktowało się ponad 217 000 osób, a około 80% z nich martwiło się o siebie.

Rosnące zjawisko treści seksualnych AI

Rozpowszechnianie materiałów związanych z wykorzystywaniem seksualnym dzieci generowanych przez sztuczną inteligencję było przedmiotem alarmującego raportu opublikowanego w zeszłym roku przez Internet Watch Foundation (IWF).

Spośród 11 000 obrazów wygenerowanych przez sztuczną inteligencję, znajdujących się na forum poświęconym wykorzystywaniu seksualnemu dzieci w ciemnej sieci, ocenionych przez analityków z IWF, ponad 2500 uznano za przestępstwa.

„Widzimy obrazy AI CSAM (materiały przedstawiające wykorzystywanie seksualne dzieci) przedstawiające twarze znanych, prawdziwych ofiar. Widzimy „odmładzanie” celebrytów i AI CSAM wykorzystujące podobiznę dzieci celebrytów” – powiedział dyrektor generalny IWF Susie Hargreaves.

„Widzimy, jak technologia „nagości” dzieci, których zdjęcia w ubraniach zostały zamieszczone w Internecie z całkowicie uzasadnionych powodów. Widzimy, jak cała ta treść jest komercjalizowana”.

Findlater dodał, że ludzie „nie powinni się oszukiwać, myśląc, że nie będzie to miało żadnych konsekwencji”.

„Gdzie idzie technologia, tam podążają nadużycia. Mamy do czynienia ze skutkami generowanych przez sztuczną inteligencję obrazów seksualnych dzieci tu i teraz, w całym kraju” – powiedział w oświadczeniu Ian Critchley, kierownik dochodzenia w Radzie Szefów Policji Krajowej (NPCC).

„Tworzenie, przeglądanie i udostępnianie zdjęć seksualnych dzieci – w tym tych stworzonych przez sztuczną inteligencję – nigdy nie odbywa się bez ofiar i jest niezgodne z prawem. A my cię znajdziemy” – dodał Critchley.

Brytyjska policja dokonała 1700 aresztowań w ciągu roku, korzystając z usług tajnych funkcjonariuszy działających w Internecie, choć nie wszyscy byli powiązani z treściami tworzonymi przez sztuczną inteligencję.

Treści generowane przez sztuczną inteligencję stwarzają także nowe trudności dla śledczych, jeśli chodzi o identyfikowanie ofiar na podstawie dzieł wirtualnych, co można znaleźć w niedawnym artykule w New York Times donoszącym, że organy ścigania borykają się z problemami w miarę postępu technologii sztucznej inteligencji.

Platformy nie robią wystarczająco dużo

Eksperci chcieliby również, aby w tej kwestii zaczęto wprowadzać więcej regulacji dotyczących firm zajmujących się sztuczną inteligencją i platform mediów społecznościowych.

W zeszłym roku badacze znaleźli ponad 3200 zdjęć podejrzanych o wykorzystywanie seksualne dzieci w zbiorze danych stworzonym przez LAION, organizację non-profit, wykorzystywaną do szkolenia generatywnego narzędzia AI Stable Diffusion.

Kilka tygodni wcześniej Stable Diffusion zostało wyróżnione jako „narzędzie preferowane przez producentów obrazów przedstawiających wykorzystywanie seksualne dzieci”, ponieważ „w praktyce nie może uniemożliwić swoim modelom generowania obrazów, które byłyby sprzeczne z warunkami korzystania z niego” – stwierdziła Internet Watch Foundation.

„Chciałbym zobaczyć zwiększenie regulacji. Chciałbym, aby tego rodzaju narzędzia zostały opracowane przez firmy zajmujące się sztuczną inteligencją i rozwijały technologię tak, aby nie można było ich nadużywać, a co za tym idzie, aby nie można było tworzyć i udostępniać obrazów przedstawiających wykorzystywanie seksualne dzieci” – stwierdził Findlater.

X (dawniej Twitter) został ukarany przez Australię grzywną w wysokości 366 742 euro w październiku 2023 r. za niepełne wyjaśnienie, w jaki sposób radzi sobie z treściami przedstawiającymi wykorzystywanie seksualne dzieci.

Niedawno decyzja Meta o wprowadzeniu kompleksowego szyfrowania w grudniu 2023 r. również spotkała się z obawami, że zapewni ono bezpieczną przystań w Internecie sprawcom wykorzystywania dzieci.

Uznając, że procesy wykrywania są niewystarczające, UE podjęła decyzję o przedłużeniu do dnia 3 kwietnia 2026 r. środka tymczasowego mającego na celu zwalczanie treści przedstawiających niegodziwe traktowanie dzieci w celach seksualnych.

Umożliwia dostawcom Internetu wyszukiwanie w swoich usługach tego typu treści i zgłaszanie ich odpowiednim organom.