O nas
Kontakt

Instagram zamazuje nagość w ramach nowych funkcji chroniących nieletnich przed „wymuszeniami na tle seksualnym”

Laura Kowalczyk

The Instagram logo is seen on a phone.

Firmy z branży mediów społecznościowych spotkały się z krytyką za to, że nie robią wystarczająco dużo, aby chronić nieletnich na swoich platformach.

Instagram rozpocznie testowanie nowych funkcji, których celem jest „ochrona młodych ludzi przed molestowaniem seksualnym i wykorzystywaniem zdjęć intymnych”.

Wymuszenie na tle seksualnym lub „sekstorcja” to forma szantażu polegająca na zmuszaniu kogoś do udostępniania zdjęć lub filmów o charakterze jednoznacznie seksualnym i wykorzystywania ich do grożenia komuś lub wykorzystywania go.

Jedno z nowych narzędzi będzie wykrywać i zamazywać obrazy zawierające nagość oraz powiadamiać użytkowników, aby zastanowili się dwa razy przed ich wysłaniem. Dla wszystkich osób poniżej 18 roku życia ta funkcja zostanie aktywowana na Instagramie.

Gdy narzędzie „ochrona przed nagością” jest włączone, użytkownicy otrzymają komunikat wzywający ich do „zachowania ostrożności podczas udostępniania wrażliwych zdjęć”.

Mogą także wycofać przesłane już zdjęcia zawierające nagość.

Gdy ktoś otrzyma nagie zdjęcie, zostanie ono zamazane z ostrzeżeniem, że zdjęcie „może zawierać nagość”.

Narzędzie wykorzystuje uczenie maszynowe do analizy, czy obraz zawiera nagość.

„Ponieważ obrazy są analizowane na samym urządzeniu, ochrona przed nagością będzie działać w przypadku całkowicie zaszyfrowanych czatów, podczas których Meta nie będzie miała dostępu do tych obrazów – chyba że ktoś zdecyduje się je nam zgłosić” – Instagram, którego właścicielem jest Mark Meta Zuckerberga, stwierdziła w poście na blogu.

Inne funkcje obejmują nowe powiadomienia wysyłane do osób, które mogły mieć kontakt z kontem usuniętym w związku z wykorzystywaniem seksualnym, a także ukrywanie przycisku wiadomości w profilach młodych ludzi w odniesieniu do kont, które mogą dopuszczać się wykorzystywania seksualnego.

Susie Hargreaves, dyrektor generalna brytyjskiej fundacji Internet Watch Foundation (IWF), stwierdziła w oświadczeniu przekazanym TylkoGliwice Next, że wymuszenia na tle seksualnym mogą mieć „straszne konsekwencje” i że ta organizacja non-profit pochwala „wszelkie wysiłki firm technologicznych mające na celu ochronę” dzieci korzystające z mediów społecznościowych.

„Jednak chociaż nowe narzędzie jest mile widzianym posunięciem Meta, wszelkie potencjalne korzyści zostaną podważone przez decyzję o wprowadzeniu kompleksowego szyfrowania w kanałach komunikacyjnych” – dodał Hargreaves.

„W ten sposób świadomie przymyka oczy na wykorzystywanie seksualne dzieci. Można i należy zrobić więcej, aby chronić miliony dzieci korzystających z usług Meta”.

Niedawny wzrost liczby przypadków przemocy seksualnej

W raporcie opublikowanym w styczniu Instytut Badań nad Zakażeniem Sieci stwierdził, że wymuszenie finansowe na tle seksualnym rośnie w zastraszającym tempie.

W raporcie dodano, że Instagram był najczęstszą platformą atakowania ofiar, ponieważ szantażyści mogli szybko uzyskać dane osobowe osób.

Tymczasem Snapchat był najczęściej używaną platformą do zmuszania ludzi do wysyłania kompromitujących zdjęć.

W 2023 r. Komisja Europejska wysłała prośby do Meta i Snap, spółki dominującej Snapchata, o dostarczenie dodatkowych informacji na temat środków podjętych w celu ochrony nieletnich, co jest wymogiem na mocy ustawy o usługach cyfrowych.

Firmy z branży mediów społecznościowych były wielokrotnie krytykowane za brak ochrony dzieci w Internecie.

Na początku tego roku podczas przesłuchania w Senacie USA dyrektor generalny Meta Mark Zuckerberg przeprosił rodziców, którzy twierdzili, że media społecznościowe skrzywdziły ich dzieci.

Powiedział, że nikt „nie powinien przechodzić przez to, przez co przecierpieliście wy i wasze rodziny”.

Tymczasem instytucje UE rozważają nowe przepisy dotyczące treści przedstawiających seksualne wykorzystywanie dzieci, które nałożyłyby na firmy obowiązek zapobiegania rozpowszechnianiu tego typu materiałów. Były one jednak przedmiotem debaty w związku z obawami dotyczącymi prywatności.

W tym tygodniu prawodawcy UE głosowali za przedłużeniem do 2026 r. obecnego wyjątku od przepisów dotyczących prywatności, który umożliwia platformom wykrywanie materiałów przedstawiających wykorzystywanie seksualne dzieci.