Organ nadzorczy ostrzegł, że i tak już niepokojący wzrost liczby obrazów przedstawiających wykorzystywanie seksualne dzieci w Internecie może się pogorszyć, jeśli nie zostaną podjęte odpowiednie środki.
I tak już alarmujące rozprzestrzenianie się obrazów przedstawiających wykorzystywanie seksualne dzieci w Internecie może się znacznie pogorszyć, jeśli nie zostaną podjęte działania mające na celu wprowadzenie kontroli nad narzędziami sztucznej inteligencji, które generują fałszywe zdjęcia, ostrzegła we wtorek agencja nadzorująca.
W pisemnym raporcie fundacja Internet Watch Foundation (IWF) z siedzibą w Wielkiej Brytanii wzywa rządy i dostawców technologii do szybkiego działania, zanim zalew generowanych przez sztuczną inteligencję obrazów przedstawiających wykorzystywanie seksualne dzieci przytłoczy śledczych i znacznie powiększy pulę potencjalnych ofiar.
„Nie mówimy o szkodach, jakie może to wyrządzić” – powiedział Dan Sexton, dyrektor ds. technologii w grupie nadzorującej.
„To dzieje się właśnie teraz i należy się tym zająć teraz”.
IWF zbadało ponad 11 000 zdjęć udostępnionych na forach w ciemnej sieci w ciągu jednego miesiąca. Wśród nich ponad 2500 przedstawiało przemoc wobec dzieci, a co piąta została zaklasyfikowana do kategorii A, co oznacza, że przedstawiała najpoważniejsze molestowanie.
Według Sądu Rejonowego w Busan w południowo-wschodniej części kraju, w pierwszej tego rodzaju sprawie w Korei Południowej, we wrześniu na dwa i pół roku więzienia skazano mężczyznę za wykorzystanie sztucznej inteligencji do tworzenia wirtualnych obrazów przedstawiających wykorzystywanie dzieci w formacie 360°. .
W niektórych przypadkach dzieci używają tych narzędzi wobec siebie nawzajem.
W szkole w południowo-zachodniej Hiszpanii policja prowadzi dochodzenie w sprawie rzekomego używania przez nastolatków aplikacji na telefon, która sprawia, że ich ubrani koledzy ze szkoły wyglądają nago na zdjęciach.
Śledztwo w sprawie forów Dark Web
Raport obnaża ciemną stronę wyścigu w budowaniu generatywnych systemów sztucznej inteligencji, które umożliwiają użytkownikom opisanie słowami tego, co chcą wyprodukować – od e-maili po nowatorskie dzieła sztuki lub filmy – i umożliwienie systemowi wyplucia tego.
Jeśli nie zostanie to powstrzymane, zalew fałszywych obrazów przedstawiających wykorzystywanie seksualne dzieci może utrudnić śledczym próby ratowania dzieci, które okazują się być wirtualnymi postaciami. Sprawcy mogą również wykorzystywać obrazy do namawiania i zmuszania nowych ofiar.
Sexton powiedział, że analitycy IWF odkryli w Internecie twarze sławnych dzieci, a także „ogromne zapotrzebowanie na tworzenie większej liczby zdjęć dzieci, które już padły ofiarą przemocy, być może wiele lat temu”.
„Wykorzystują istniejące prawdziwe treści do tworzenia nowych treści dla ofiar” – powiedział. „To po prostu niesamowicie szokujące”.
Sexton powiedział, że jego organizacja charytatywna, która koncentruje się na zwalczaniu niegodziwego traktowania dzieci w celach seksualnych w Internecie, po raz pierwszy zaczęła publikować raporty dotyczące obraźliwych obrazów generowanych przez sztuczną inteligencję na początku tego roku.
Doprowadziło to do zbadania forów w tzw. ciemnej sieci – części Internetu hostowanej w zaszyfrowanej sieci i dostępnej wyłącznie za pośrednictwem narzędzi zapewniających anonimowość.
Analitycy IWF odkryli, że sprawcy przemocy dzielili się wskazówkami i zachwycali się, jak łatwo można było zamienić ich domowe komputery w fabryki generujące obrazy dzieci w każdym wieku o charakterze jednoznacznie seksualnym.
Niektórzy również handlują i próbują czerpać zyski z takich obrazów, które wydają się coraz bardziej realistyczne.
„Zaczynamy obserwować eksplozję treści” – powiedział Sexton.
Chociaż raport IWF ma raczej na celu zwrócenie uwagi na narastający problem niż zaoferowanie recept, wzywa rządy do zaostrzenia przepisów, aby ułatwić zwalczanie nadużyć generowanych przez sztuczną inteligencję.
Dotyczy to w szczególności Unii Europejskiej, gdzie toczy się debata na temat środków nadzoru, które mogłyby automatycznie skanować aplikacje do przesyłania wiadomości w poszukiwaniu podejrzanych obrazów przedstawiających wykorzystywanie seksualne dzieci, nawet jeśli obrazy te nie były wcześniej znane organom ścigania.
Prace grupy skupiają się głównie na zapobieganiu ponownemu wykorzystywaniu poprzednich ofiar wykorzystywania seksualnego poprzez redystrybucję ich zdjęć.
Apel o więcej regulacji
W raporcie wskazano, że dostawcy technologii mogliby zrobić więcej, aby utrudnić korzystanie z opracowanych przez nich produktów w ten sposób, chociaż sprawę komplikuje fakt, że niektóre narzędzia trudno ponownie włożyć do butelki.
W zeszłym roku wprowadzono szereg nowych generatorów obrazów AI, które zadziwiły opinię publiczną możliwością tworzenia na żądanie dziwacznych lub fotorealistycznych obrazów. Jednak większość z nich nie jest faworyzowana przez producentów materiałów przedstawiających wykorzystywanie seksualne dzieci, ponieważ zawierają mechanizmy blokujące takie treści.
Sexton stwierdził, że dostawcy technologii, którzy mają zamknięte modele sztucznej inteligencji i mają pełną kontrolę nad sposobem ich szkolenia i wykorzystania – na przykład generator obrazów DALL-E OpenAI – wydają się skuteczniejsi w blokowaniu nadużyć.
Z kolei narzędziem preferowanym przez producentów obrazów przedstawiających wykorzystywanie seksualne dzieci jest Stable Diffusion o otwartym kodzie źródłowym, opracowane przez londyński startup Stability AI.
Kiedy latem 2022 roku pojawiło się Stable Diffusion, część użytkowników szybko nauczyła się, jak go używać do generowania nagości i pornografii. Chociaż większość tych materiałów przedstawiała osoby dorosłe, często odbywały się one bez ich zgody, na przykład podczas tworzenia nagich zdjęć inspirowanych celebrytami.
Później w Stability wprowadzono nowe filtry, które blokują niebezpieczne i nieodpowiednie treści, a licencja na oprogramowanie Stability obejmuje również zakaz nielegalnego użytkowania.
W oświadczeniu opublikowanym we wtorek firma stwierdziła, że „surowo zabrania wszelkich nadużyć na swoich platformach do celów nielegalnych lub niemoralnych”.
„Zdecydowanie wspieramy wysiłki organów ścigania przeciwko osobom, które nadużywają naszych produktów do nielegalnych lub niegodziwych celów” – czytamy w oświadczeniu.
Użytkownicy nadal mogą jednak uzyskać dostęp do niefiltrowanych starszych wersji Stable Diffusion, które są „w przeważającej mierze oprogramowaniem wybieranym przez osoby tworzące treści dla dorosłych z udziałem dzieci” – powiedział David Thiel, główny technolog w Stanford Internet Observatory, innej grupie nadzorującej badającej problem.
„Nie można regulować tego, co ludzie robią na swoich komputerach, w swoich sypialniach. To nie jest możliwe” – dodał Sexton. „Jak więc dojść do punktu, w którym nie będą mogli używać ogólnodostępnego oprogramowania do tworzenia takich szkodliwych treści?”
Większość obrazów przedstawiających wykorzystywanie seksualne dzieci wygenerowanych przez sztuczną inteligencję zostałaby uznana za nielegalną w świetle przepisów obowiązujących w USA, Wielkiej Brytanii i innych krajach, ale okaże się, czy organy ścigania będą miały narzędzia do zwalczania takich obrazów.
Raport IWF został opublikowany przed zaplanowanym w przyszłym tygodniu światowym spotkaniem na temat bezpieczeństwa sztucznej inteligencji, którego gospodarzem będzie rząd brytyjski, w którym wezmą udział prominentni uczestnicy, w tym wiceprezydent USA Kamala Harris i liderzy technologii.
„Chociaż ten raport przedstawia ponury obraz, jestem optymistą” – stwierdziła dyrektor generalna IWF Susie Hargreaves w przygotowanym pisemnym oświadczeniu.
Powiedziała, że ważne jest, aby poinformować o realiach problemu „szerokiej publiczności, ponieważ musimy przeprowadzić dyskusję na temat ciemniejszej strony tej niesamowitej technologii”.