O nas
Kontakt

Meta, aby zidentyfikować więcej obrazów generowanych przez sztuczną inteligencję w miarę narastania globalnej gorączki wyborczej

Laura Kowalczyk

Meta CEO Mark Zuckerberg at F8 event in 2019

Meta coraz bardziej rygorystycznie radzi sobie z dezinformacją, ponieważ w tym roku w krajach na całym świecie odbywają się wybory.

Firma ogłosiła we wtorek, że Meta zacznie oznaczać zdjęcia wygenerowane przez sztuczną inteligencję (AI) przesłane na platformy Instagram, Facebook i Threads w nadchodzących miesiącach wraz z rozpoczęciem sezonu wyborczego na całym świecie.

Firma Marka Zuckerberga tworzy narzędzia do identyfikacji treści AI na dużą skalę w celu uporządkowania dezinformacji i deepfake’ów.

Meta twierdzi, że będzie teraz starała się oznaczać treści generowane przez sztuczną inteligencję, które pochodzą od Google, OpenAI, Microsoft, Adobe, Midjourney i Shutterstock. Będzie także karać użytkowników, którzy nie ujawnią, czy realistyczny materiał wideo lub audio został wykonany przy użyciu sztucznej inteligencji.

Do tej pory Meta oznaczała jedynie obrazy wygenerowane przez sztuczną inteligencję, które korzystały z jej własnych narzędzi AI.

Prezes Meta ds. spraw globalnych, Nick Clegg, napisał we wtorek na blogu, że firma rozpocznie „w nadchodzących miesiącach” etykietowanie generowane przez sztuczną inteligencję od firm zewnętrznych i będzie kontynuować prace nad problemem „przez następny rok”.

Ponadto powiedział, że Meta „ciężko pracuje nad opracowaniem klasyfikatorów, które pomogą nam automatycznie wykrywać treści generowane przez sztuczną inteligencję, nawet jeśli w treści brakuje niewidocznych znaczników”.

Dlaczego teraz?

Podczas wyborów prezydenckich w USA w 2016 i 2020 r. serwis Meta, znany wówczas jako Facebook, został ostro skrytykowany za rozpowszechnianie w jego witrynie dezinformacji na temat wyborów pochodzących od podmiotów zagranicznych, głównie Rosji, na temat wyborów. Firma znalazła się również pod ostrzałem podczas pandemii COVID-19 w 2019 r., kiedy na platformie szerzyły się również dezinformacje dotyczące zdrowia.

Nowa polityka Meta w zakresie sztucznej inteligencji prawdopodobnie również powstrzyma niezależną Radę Nadzorczą firmy, która w poniedziałek skrytykowała jej politykę medialną jako „niespójną” i „pozbawioną przekonującego uzasadnienia”.

Jest to następstwem orzeczenia podtrzymanego przez Metę, że zmanipulowane wideo Joe Bidena, które pierwotnie pokazywało prezydenta USA wymieniającego się naklejkami „Głosowałem” ze swoją dorosłą wnuczką w 2022 r., zostało później zmanipulowane tak, aby wyglądało, jakby niewłaściwie dotknął jej klatki piersiowej.

Meta stwierdziła, że ​​film nie narusza obecnych zasad, ponieważ nie manipulowano nim przy użyciu sztucznej inteligencji.

Clegg stwierdził, że branża mediów społecznościowych ma opóźnienia w tworzeniu standardów identyfikacji obrazu i dźwięku generowanego przez sztuczną inteligencję, ale przyznał, że firma nie jest w stanie samodzielnie wyłapać wszystkich fałszywych mediów.

„Ta praca jest szczególnie ważna, ponieważ w nadchodzących latach prawdopodobnie stanie się to przestrzenią coraz bardziej kontradyktoryjną” – powiedział Clegg.

„Osoby i organizacje, które aktywnie chcą oszukiwać ludzi za pomocą treści generowanych przez sztuczną inteligencję, będą szukać sposobów na obejście zabezpieczeń umożliwiających ich wykrycie. W całej naszej branży i ogólnie w społeczeństwie będziemy musieli stale szukać sposobów, aby pozostać o krok przed nami”.