O nas
Kontakt

Wojna między Izraelem a Hamasem: Wirusowe zdjęcie dziecka uwięzionego pod gruzami okazało się fałszywe

Laura Kowalczyk

Wojna między Izraelem a Hamasem: Wirusowe zdjęcie dziecka uwięzionego pod gruzami okazało się fałszywe

Wojna między Izraelem a Hamasem wygenerowała w Internecie tak wiele fałszywych lub wprowadzających w błąd informacji, że nawet weryfikatorzy faktów i analitycy mają trudności z nadążeniem za nimi. Media społecznościowe są zalewane wprowadzającymi w błąd postami, a sztuczna inteligencja pogarsza sytuację.

Od rozpoczęcia wojny 7 października większość dezinformacji dotyczyła nieaktualnych filmów i zdjęć przypisywanych konfliktowi między Izraelem a Hamasem.

Ale teraz zaczęliśmy widzieć także obrazy, których pochodzenia nie można prześledzić. Dzieje się tak dlatego, że zostały wygenerowane przy użyciu sztucznej inteligencji (AI).

Jedno ze zdjęć wygenerowanych przez sztuczną inteligencję, które rozprzestrzeniło się w Internecie, przedstawia dziecko częściowo zakopane pod gruzami.

Choć wielu użytkowników mediów społecznościowych wyraziło wątpliwości co do jego autentyczności, wiele osób nadal się na niego nabrało, w tym dziennikarz mieszkający w Gazie.

Jak rozpoznać, czy obraz został wygenerowany przez sztuczną inteligencję? Pierwszą rzeczą, która bardzo rzuca się w oczy, jest nadmiernie przesadny wyraz twarzy, szczególnie na brodzie i czole dziecka.

Przyglądając się uważnie, wydaje się, że dziecko ma dodatkowe palce. Dzieje się tak dlatego, że chociaż sztuczna inteligencja jest coraz lepsza w tworzeniu obrazów przypominających ludzi, nadal ma problemy z odtworzeniem niektórych części ciała, w tym dłoni i stóp.

Znaleziono także kostkę wcześniejsze posty tego obrazu wygenerowanego przez sztuczną inteligencję. Pojawił się już w mediach społecznościowych w lutym 2023 r., po trzęsieniach ziemi, które nawiedziły Turcję i Syrię.

Dziecko wygenerowane przez sztuczną inteligencję było wykorzystywane przez demonstrantów wspierających Palestynę na całym świecie, w tym ostatnio w Kairze w Egipcie.

Niedawno francuska gazeta Liberation znalazła się pod ostrzałem za umieszczenie na okładce protestującego trzymającego baner z dzieckiem wygenerowanym przez sztuczną inteligencję.

Wielu użytkowników mediów społecznościowych stwierdziło, że gazeta rozpowszechniała fałszywe wiadomości nie stwierdzając wyraźnie, że protestujący trzymał obraz wygenerowany przez sztuczną inteligencję.

„Wiele znaków wymachiwanych podczas demonstracji 17 października zostało w rzeczywistości wygenerowanych przez sztuczną inteligencję, która w ostatnich miesiącach stała się artystyczną podstawą protestów, podobnie jak wcześniej lalki, lalki czy szkielety” – odpiera się redaktor naczelny „Dziennika”. Wyzwolenie, Dov Alfon.

Czy należało przynajmniej wspomnieć w podpisie zdjęcia, że ​​protestujący wymachuje wizerunkiem sztucznej inteligencji? „Prawdopodobnie tak” – powiedział Dov Alfon – „ale w podpisie Associated Press nie wspomniano o tym ani przez pominięcie, ani przez brak czasu, i my też tego nie zrobiliśmy. Jest to oczywiście godne ubolewania.”

Chociaż to konkretne zdjęcie wygenerowane przez sztuczną inteligencję jest dość łatwe do wykrycia, postęp technologiczny prowadzi do coraz bardziej wiarygodnych wyników

Być może pamiętacie wirusowe zdjęcie Papieża w bardzo stylowej puchowej kurtce, które zmyliło dziennikarzy w marcu tego roku.

Obecnie platformy generujące obrazy AI, takie jak Dall-E i Stable Diffusion, wprowadziły ograniczenia dotyczące obrazów graficznych i politycznych, co pomogło spowolnić produkcję dezinformacji związanej z wojną.