O nas
Kontakt

Jak wynika z nowego raportu, generatory obrazów AI są szkolone na wyraźnych zdjęciach dzieci

Laura Kowalczyk

The Stanford Internet Observatory found more than 3,200 images of suspected child sexual abuse in the giant AI database LAION

W nowym badaniu Stanford Internet Observatory znalazło w gigantycznej bazie sztucznej inteligencji LAION ponad 3200 zdjęć przedstawiających podejrzenia wykorzystywania seksualnego dzieci.

Jak wynika z nowego raportu, w którym wzywa się firmy do podjęcia działań w celu usunięcia szkodliwej luki w opracowanej przez nie technologii, w fundamentach popularnych generatorów obrazów sztucznej inteligencji (AI) ukryte są tysiące obrazów przedstawiających wykorzystywanie seksualne dzieci.

Te same obrazy ułatwiły systemom sztucznej inteligencji tworzenie realistycznych i wyraźnych obrazów fałszywych dzieci, a także przekształcanie w mediach społecznościowych zdjęć w pełni ubranych prawdziwych nastolatków w akty, ku wielkiemu niepokojowi szkół i organów ścigania na całym świecie.

Do niedawna badacze zajmujący się przeciwdziałaniem molestowaniu uważali, że jedynym sposobem, w jaki niektóre niekontrolowane narzędzia sztucznej inteligencji mogą wytworzyć obraźliwe obrazy dzieci, jest zasadniczo połączenie tego, czego nauczyli się z dwóch oddzielnych zestawów obrazów w Internecie – pornografii dla dorosłych i łagodnych zdjęć dzieci.

Jednak Obserwatorium Internetowe Stanforda znalazło ponad 3200 obrazów przedstawiających podejrzenia wykorzystywania seksualnego dzieci w gigantycznej bazie danych sztucznej inteligencji LAION – indeksie zdjęć i podpisów dostępnych w Internecie, który był używany do szkolenia czołowych twórców obrazów AI, takich jak Stable Diffusion.

Grupa nadzorująca z siedzibą na Uniwersytecie Stanforda współpracowała z Kanadyjskim Centrum Ochrony Dzieci i innymi organizacjami charytatywnymi przeciwdziałającymi molestowaniu, aby zidentyfikować nielegalne materiały i zgłosić organom ścigania oryginalne linki do zdjęć.

Odpowiedź była natychmiastowa. W przeddzień środowej publikacji raportu Stanford Internet Observatory LAION poinformował Associated Press, że tymczasowo usuwa swoje zbiory danych.

LAION, organizacja non-profit Large-scale Artificial Intelligence Open Network, stwierdziła w oświadczeniu, że „stosuje politykę zerowej tolerancji dla nielegalnych treści i zachowując szczególną ostrożność, usunęliśmy zbiory danych LAION, aby upewnić się, że są bezpieczne przed ich ponownym opublikowaniem”.

„Nie możemy tego cofnąć”

Chociaż obrazy stanowią zaledwie ułamek indeksu LAION obejmującego około 5,8 miliarda obrazów, grupa ze Stanford twierdzi, że prawdopodobnie wpływają one na zdolność narzędzi sztucznej inteligencji do generowania szkodliwych wyników i wzmacniania wcześniejszego wykorzystywania prawdziwych ofiar, które pojawiały się wielokrotnie.

Nie jest łatwo rozwiązać ten problem, a jego korzenie sięgają wielu projektów generatywnej sztucznej inteligencji „skutecznie wprowadzanych w pośpiechu na rynek” i udostępnianych powszechnie ze względu na dużą konkurencyjność tej dziedziny, powiedział David Thiel, główny technolog Stanford Internet Observatory, autor raportu.

„Przeszukanie całego Internetu i wykorzystanie tego zbioru danych do wytrenowania modeli to coś, co powinno zostać ograniczone do operacji badawczej, a nie czymś, co powinno być dostępne na zasadach open source bez znacznie bardziej rygorystycznej uwagi” – Thiel powiedział w wywiadzie.

Wybitnym użytkownikiem LAION, który pomógł ukształtować rozwój zbioru danych, jest londyński start-up Stability AI, twórca modeli zamiany tekstu na obraz Stable Diffusion.

Nowe wersje Stable Diffusion znacznie utrudniły tworzenie szkodliwych treści, ale starsza wersja wprowadzona w zeszłym roku – której według Stability AI nie wydano – nadal jest zintegrowana z innymi aplikacjami i narzędziami i pozostaje „najpopularniejszym modelem generowania wyraźne obrazy” – wynika z raportu Stanforda.

„Nie możemy tego cofnąć. Ten model jest w rękach wielu osób na lokalnych komputerach” – powiedział Lloyd Richardson, dyrektor ds. technologii informatycznych w Kanadyjskim Centrum Ochrony Dzieci, które prowadzi kanadyjską infolinię służącą do zgłaszania wykorzystywania seksualnego w Internecie.

W środę Stability AI poinformowało, że obsługuje wyłącznie filtrowane wersje Stable Diffusion i że „od czasu przejęcia wyłącznego rozwoju Stable Diffusion, Stability AI podjęła proaktywne kroki w celu ograniczenia ryzyka nadużyć”.

„Te filtry usuwają niebezpieczne treści z modeli” – podała firma w przygotowanym oświadczeniu.

„Usuwając tę ​​treść, zanim dotrze ona do modelu, możemy zapobiec generowaniu przez model niebezpiecznych treści”.

LAION był pomysłem niemieckiego badacza i nauczyciela Christopha Schuhmanna, który na początku tego roku powiedział AP, że jednym z powodów publicznego udostępnienia tak ogromnej wizualnej bazy danych była chęć zapewnienia, że ​​przyszłość rozwoju sztucznej inteligencji nie będzie kontrolowana przez kilka potężnych firm.

„Będzie znacznie bezpieczniej i znacznie sprawiedliwiej, jeśli uda nam się go zdemokratyzować, aby cała społeczność naukowa i ogół społeczeństwa mogły z tego skorzystać” – powiedział.

Duża część danych LAION pochodzi z innego źródła, Common Crawl, repozytorium danych stale przeszukiwanych w otwartym Internecie, ale dyrektor wykonawczy Common Crawl, Rich Skrenta, powiedział, że „obowiązkiem” LAION jest przeskanowanie i przefiltrowanie tego, czego potrzeba przed wykorzystaniem z tego.

LAION poinformował w tym tygodniu, że opracował „rygorystyczne filtry” do wykrywania i usuwania nielegalnych treści przed udostępnieniem swoich zbiorów danych i nadal pracuje nad udoskonaleniem tych filtrów. W raporcie Stanforda przyznano, że twórcy LAION podjęli pewne próby odfiltrowania treści dla dorosłych, ale być może udałoby im się to lepiej, gdyby wcześniej skonsultowali się z ekspertami ds. bezpieczeństwa dzieci.

Wiele generatorów zamiany tekstu na obraz wywodzi się w jakiś sposób z bazy danych LAION, choć nie zawsze jest jasne, które z nich. OpenAI, twórca DALL-E i ChatGPT, stwierdził, że nie korzysta z LAION i udoskonalił swoje modele, aby odrzucać prośby o treści o charakterze seksualnym z udziałem nieletnich.

Google zbudował swój model obrazu Imagen w oparciu o zbiór danych LAION, ale zdecydował się nie upubliczniać go w 2022 r. po tym, jak audyt bazy danych „odkrył szeroki zakres nieodpowiednich treści, w tym obrazy pornograficzne, rasistowskie obelgi i szkodliwe stereotypy społeczne”.

Ustawa o ochronie prywatności dzieci w Internecie

Próba oczyszczenia danych z mocą wsteczną jest trudna, dlatego Obserwatorium Internetowe Stanforda wzywa do zastosowania bardziej drastycznych środków.

Jeden z nich jest przeznaczony dla każdego, kto zbudował zestawy szkoleniowe LAION-5B – nazwane tak od ponad 5 miliardów par obrazu i tekstu, jakie zawiera – aby „usunął je lub współpracował z pośrednikami w celu oczyszczenia materiału”.

Innym jest skuteczne spowodowanie zniknięcia starszej wersji Stable Diffusion ze wszystkich oprócz najciemniejszych zakątków Internetu.

„Uzasadnione platformy mogą przestać oferować ich wersje do pobrania”, szczególnie jeśli są często wykorzystywane do generowania obraźliwych obrazów i nie mają zabezpieczeń, które mogłyby je zablokować, powiedział Thiel.

Jako przykład Thiel podał CivitAI, platformę preferowaną przez osoby tworzące pornografię generowaną przez sztuczną inteligencję, ale według niej brakuje w niej środków bezpieczeństwa, aby porównać ją z tworzeniem zdjęć dzieci. W raporcie wzywa się także firmę Hugging Face, firmę zajmującą się sztuczną inteligencją, która dystrybuuje dane szkoleniowe dla modeli, do wdrożenia lepszych metod zgłaszania i usuwania linków do materiałów obraźliwych.

Hugging Face oświadczyło, że regularnie współpracuje z organami regulacyjnymi i grupami zajmującymi się bezpieczeństwem dzieci w celu identyfikowania i usuwania materiałów obraźliwych. CivitAI nie odpowiedziało na prośby o komentarz przesłane na jego stronę internetową.

W raporcie Stanforda kwestionuje się również to, czy jakiekolwiek zdjęcia dzieci – nawet tych najbardziej łagodnych – powinny być wprowadzane do systemów sztucznej inteligencji bez zgody rodziny ze względu na zabezpieczenia przewidziane w federalnej ustawie o ochronie prywatności dzieci w Internecie.

Rebecca Portnoff, dyrektor ds. analityki danych w organizacji Thorn zajmującej się przeciwdziałaniem wykorzystywaniu seksualnemu dzieci, powiedziała, że ​​jej organizacja przeprowadziła badania, które pokazują, że rozpowszechnienie obrazów generowanych przez sztuczną inteligencję wśród sprawców przemocy jest niewielkie, ale stale rośnie.

Programiści mogą złagodzić te szkody, upewniając się, że zbiory danych, których używają do opracowywania modeli sztucznej inteligencji, nie zawierają materiałów zawierających nadużycia.

Portnoff powiedział, że istnieją również możliwości ograniczenia szkodliwych zastosowań, gdy modele już znajdą się w obiegu.

Firmy technologiczne i organizacje zajmujące się bezpieczeństwem dzieci przypisują obecnie filmom i obrazom „hasz” – unikalne podpisy cyfrowe – w celu śledzenia i usuwania materiałów przedstawiających wykorzystywanie dzieci. Według Portnoffa tę samą koncepcję można zastosować do modeli sztucznej inteligencji, które są niewłaściwie wykorzystywane.

„W tej chwili to się nie dzieje” – powiedziała. „Ale moim zdaniem można i należy to zrobić”.