O nas
Kontakt

Planowane przepisy UE dotyczące niegodziwego traktowania dzieci w celach seksualnych wywołały ostry spór dotyczący prywatności. Dlaczego?

Laura Kowalczyk

Planowane przepisy UE dotyczące niegodziwego traktowania dzieci w celach seksualnych wywołały ostry spór dotyczący prywatności.  Dlaczego?

Niektórzy argumentowali, że proponowane prawo UE mogłoby zapoczątkować masową inwigilację w bloku poprzez skanowanie całej komunikacji, w tym wiadomości zaszyfrowanych.

Rhiannon miała zaledwie trzynaście lat, kiedy była molestowana w Internecie, zmuszana i wykorzystywana seksualnie.

Jej sprawcy postawiono zarzuty, ale skutki jego zbrodni są głębokie.

„Przez bardzo długi czas nie mówiłam o moim molestowaniu” – Rhiannon powiedziała TylkoGliwice. „Cierpiałam na stany lękowe, ataki paniki, depresję, samookaleczenia i próby samobójcze”.

Dziś, w wieku 33 lat, żyje ze świadomością, że zdjęcia i filmy przedstawiające jej molestowanie wciąż krążą w Internecie. Jednak ona zabiera głos, wzywając do wprowadzenia silniejszych przepisów w celu zwalczania drapieżników seksualnych.

W czwartek ministrowie Unii Europejskiej omówią szeroko zakrojone nowe przepisy zaproponowane przez Komisję Europejską, które mają na celu walkę z niegodziwym traktowaniem dzieci w celach seksualnych w Internecie i zapewnienie, że przestępstwa takie jak te popełnione przeciwko Rhiannon nie będą powtarzane dzień po dniu w Internecie.

Rhiannon, obywatelka brytyjska, twierdzi, że proponowane rozporządzenie UE wraz z brytyjską ustawą o bezpieczeństwie w Internecie, która wkrótce stanie się obowiązującym prawem, mają kluczowe znaczenie w globalnej walce z niegodziwym traktowaniem dzieci w celach seksualnych.

Planowane przez UE przepisy wykorzystywałyby nowe technologie do wykrywania nowych i istniejących materiałów przedstawiających seksualne wykorzystywanie dzieci (CSAM) oraz czynności związanych z uwodzeniem dzieci, a także dawałyby organom krajowym uprawnienia do nałożenia na usługi cyfrowe obowiązku skanowania komunikacji użytkowników, w tym wiadomości zaszyfrowanych.

Wybuchł jednak zawzięty spór, w którym obrońcy ochrony dzieci przeciwstawili się lobbystom zajmującym się prawami cyfrowymi, które twierdzą, że doprowadzi to do wprowadzenia reżimu masowej inwigilacji i oznacza koniec prywatności cyfrowej, jaką znamy. Zwolennicy twierdzą, że niezatwierdzenie rozporządzenia pozostawiłoby przestępców niewykrytych, a wielkie technologie nieuregulowane.

Pomiędzy obydwoma obozami istnieje balans, po którym trudno przejść: jak łapać sprawców przemocy wobec dzieci bez naruszania naszej prywatności w Internecie.

Czy technologie są wystarczająco dojrzałe?

Aby wykryć istniejące materiały przedstawiające wykorzystywanie seksualne dzieci (CSAM) znane organom ścigania, Komisja zaproponowała zastosowanie tzw. percepcyjnej funkcji skrótu, która pobiera odcisk palca (ang. hash) szkodliwych plików i wykrywa ich repliki w Internecie.

Eksperci akademiccy ostrzegają jednak, że sprawcy mogą łatwo manipulować obrazami, aby uniknąć wykrycia, i że niewinni użytkownicy mogą zostać niesłusznie oskarżeni: „Problem polega na tym, że bardzo łatwo złamać hash, zmieniając jeden piksel lub nawet lekko przycinając obraz” – profesor Bart Preneel, ekspert ds. kryptografii na uniwersytecie KU Leuven, wyjaśnił: „Możliwe jest również, że całkowicie legalny obraz zostanie oznaczony jako fałszywie pozytywny”.

Komisja chce utworzyć w Hadze unijne centrum ds. niegodziwego traktowania dzieci w celach seksualnych, którego personel byłby zatrudniony do ręcznego filtrowania treści oznaczonych jako nielegalne, aby uniknąć zasypywania organów ścigania fałszywymi alarmami.

Jednak organizacja społeczeństwa obywatelskiego ECPAT International twierdzi, że istnieją wystarczające dowody na to, że percepcyjne technologie mieszające działają.

„Te technologie są nie tylko obiecujące; są udowodnione. Metody oparte na skrótach są skuteczne od ponad dziesięciu lat, umożliwiając szybsze zwalczanie nielegalnych treści i pomagając egzekwować prawo. Na przykład ponad 200 firm korzysta z technologii PhotoDNA, aby zapobiec wykorzystywaniu ich usług do rozpowszechniania materiałów przedstawiających wykorzystywanie seksualne dzieci” – powiedział rzecznik ECPAT.

Komisja chce również wykorzystywać sztuczną inteligencję (AI) do wykrywania nowo utworzonych CSAM, a także do sygnalizowania wzorców zachowań, które mogą stanowić uwodzenie dziecka. Preneel powiedział TylkoGliwice, że te metody stwarzają jeszcze większe ryzyko fałszywego oskarżenia.

„Nawet jeśli zmniejszymy poziom błędów do 1%, przy miliardach zdjęć wysyłanych codziennie do UE możemy mieć do czynienia z dziesiątkami milionów codziennych fałszywych alarmów” – ostrzegł Preneel. „Moglibyśmy obciążać niewinnych ludzi, oskarżając ich o najpoważniejsze z przestępstw”.

Preneel ostrzega również, że nastolatki dobrowolnie i legalnie dzielą się między sobą nagimi zdjęciami, co może zostać bezprawnie uznane za przestępstwo.

Uznając jednak, że oparte na języku modele sztucznej inteligencji służące do wykrywania zachowań związanych z uwodzeniem, nadal wymagają dopracowania, ECPAT twierdzi, że sztuczną inteligencję z powodzeniem wdrożono do wykrywania nowych CSAM przy „niskim wskaźniku błędów”.

„Narzędzia do wykrywania CSAM są specjalnie przeszkolone, aby nie znajdować legalnych obrazów” – wyjaśnił rzecznik ECPAT. „Narzędzia te są szkolone w oparciu o znaną CSAM, pornografię dla dorosłych i łagodne obrazy, szczególnie w celu rozróżnienia między nimi i zapobiegania błędnej interpretacji łagodnych obrazów jako CSAM”.

Mié Kohiyama, kolejna francuska ofiara wykorzystywania seksualnego dzieci, która podobnie jak Rhiannon opowiada się za silniejszymi regulacjami, twierdzi, że rozpowszechnienie zdjęć i filmów wideo przedstawiających wykorzystywanie seksualne dzieci w Internecie oznacza, że ​​Unia Europejska ma obowiązek podjąć działania.

„Ponad 60% tych obrazów znajduje się na serwerach europejskich, dlatego naszym obowiązkiem jest podjęcie odpowiednich działań” – wyjaśniła. „Wykrywanie jest kluczowe, a usuwanie jest kluczowe”.

Czy nowe przepisy naruszą prywatność?

Najbardziej kwestionowanym aspektem wniosku Komisji jest nałożony na firmy technologiczne obowiązek wdrożenia technologii skanowania po stronie klienta (CSS) w celu skanowania wiadomości użytkowników, w tym całkowicie szyfrowanej komunikacji na platformach takich jak Whatsapp firmy Meta, gdy ryzyko jest zidentyfikowany.

Oznaczałoby to, że można by wykorzystać zaszyfrowane wiadomości, zdjęcia, e-maile i notatki głosowe użytkowników.

Zwolennicy prywatności ostrzegają, że stanowi to poważne naruszenie prawa człowieka do prywatności w Internecie i może zostać łatwo zmanipulowane przez złośliwe podmioty. CSS został na krótko wdrożony przez firmę Apple w 2021 r. do skanowania plików przesyłanych do iCloud, ale został usunięty w ciągu kilku tygodni po porwaniu systemu.

Jednak ECPAT International twierdzi, że należy pamiętać, że CSS działa „zanim dane zostaną zaszyfrowane”.

„Czyni to poprzez oznaczanie CSAM przed jego przesłaniem i wysłaniem w zaszyfrowanym środowisku – w taki sam sposób, w jaki WhatsApp, kompleksowo szyfrowana usługa, wdraża już technologię wykrywania złośliwego oprogramowania i wirusów” – powiedział rzecznik ECPAT.

Krytycy ostrzegają również, że podważanie szyfrowania może stworzyć niebezpieczny precedens dla reżimów autorytarnych, które mogłyby manipulować technologią w celu wykrywania krytyki i atakowania dysydentów.

Mié twierdzi, że takie sianie paniki to po prostu sposób na odwrócenie uwagi od prawdziwego problemu.

„To rozporządzenie zawierałoby zabezpieczenia” – powiedziała. „Europa to demokracja, a nie dyktatura. I nie bądźmy naiwni: w dyktaturze, jeśli chcesz szpiegować obywateli, faktycznie szpiegujesz obywateli. Nie potrzebujesz nowych przepisów”.

Czy ministrowie UE mogą znaleźć kompromis?

Proponowane rozporządzenie wywołało zamieszanie w stolicach UE, a wiele osób zaniepokoiło się dojrzałością technologii i zagrożeniem dla prywatności konsumentów. Ministrowie mogą zdecydować się na zielone światło dla niektórych aspektów tekstu, odkładając inne plany do czasu wystarczającego dojrzałości technologii.

Mié i Rhiannon powiedziały ministrom TylkoGliwice, że powinni unikać uginania się pod presją lobby dużych technologii i cyfrowych. Twierdzą, że gwałtowny wzrost liczby obraźliwych materiałów pokazuje, że dobrowolne środki stosowane przez firmy technologiczne w celu wykrywania i usuwania treści są wyraźnie niewystarczające. Z badania opublikowanego we wtorek przez WeProtect Global Alliance wynika, że ​​liczba zgłoszonych materiałów przedstawiających wykorzystywanie seksualne dzieci wzrosła o 87% od 2019 r.

„Firmy technologiczne projektują swoje produkty tak, aby przyciągać dzieci i angażować je jak najdłużej. Jeśli taki jest ich model, musi to być bezpieczne środowisko dla dzieci” – stwierdziła Rhiannon.

„Model samoregulacji dla firm technologicznych nie sprawdził się, jasno wynika z liczby dzieci, które doświadczają przemocy. Musimy stworzyć przepisy w tej kwestii, musimy zmusić firmy technologiczne do ochrony dzieci” – dodała. .

Mié uważa również, że blok ma obowiązek chronić osoby, które doświadczyły przemocy wspomaganej cyfrowo, przed ponowną traumą wynikającą ze świadomości, że obrazy przedstawiające ich molestowanie są oglądane codziennie.

„Ocaleni boją się wszystkiego. Nie mogą wyjść z domów. Niektórzy boją się nawet korzystania z Internetu. To ludzie całkowicie wykluczeni ze społeczeństwa” – powiedziała. „Musimy je chronić. Musimy chronić dzieci. Wszyscy muszą o tym pamiętać”.