O nas
Kontakt

Jak wynika z ankiety, organizacje informacyjne korzystają ze sztucznej inteligencji, ale wiele z nich jest zaniepokojonych jej konsekwencjami etycznymi

Laura Kowalczyk

Jak wynika z ankiety, organizacje informacyjne korzystają ze sztucznej inteligencji, ale wiele z nich jest zaniepokojonych jej konsekwencjami etycznymi

Z nowego raportu na temat wykorzystania sztucznej inteligencji w dziennikarstwie wynika, że ​​ponad 60 procent respondentów było zaniepokojonych jej konsekwencjami etycznymi.

Większość organizacji informacyjnych na całym świecie wykorzystuje sztuczną inteligencję (AI) w co najmniej jednym aspekcie swojej pracy, ale wiele z nich pozostaje zaniepokojonych etycznymi konsekwencjami takiego działania.

Tak wynika z drugiego globalnego badania organizacji informacyjnych przeprowadzonego przez projekt JournalismAI London School of Economics (LSE).

Ankietę wypełniło łącznie 105 organizacji informacyjnych i medialnych w 46 różnych krajach w okresie od kwietnia do lipca 2023 r.

Prawie trzy na cztery organizacje informacyjne stwierdziły, że wykorzystują sztuczną inteligencję do gromadzenia, produkcji lub dystrybucji wiadomości, a około 80 procent respondentów spodziewa się, że sztuczna inteligencja będzie w przyszłości odgrywać większą rolę w ich redakcjach.

Jednak ponad połowa stwierdziła, że ​​jest zaniepokojona „etycznymi konsekwencjami integracji sztucznej inteligencji dla jakości redakcyjnej i innych aspektów dziennikarstwa” – wykazało badanie.

„Dziennikarze próbują dowiedzieć się, jak włączyć technologie sztucznej inteligencji do swojej pracy, przestrzegając wartości dziennikarskich, takich jak dokładność, uczciwość i przejrzystość” – napisali autorzy raportu.

Dodali, że niektórzy dziennikarze obawiają się, że technologie sztucznej inteligencji mogą jeszcze bardziej skomercjalizować branżę i osłabić zaufanie publiczne.

Tylko jedna trzecia respondentów ankiety stwierdziła, że ​​ich organizacje informacyjne są gotowe stawić czoła wyzwaniom związanym z wykorzystaniem sztucznej inteligencji w newsroomie.

Podobna liczba respondentów stwierdziła, że ​​ich redakcje posiadają instytucjonalną strategię wykorzystania technologii lub ją opracowują.

Około 85 procent respondentów ankiety stwierdziło, że przynajmniej eksperymentowało z generatywną sztuczną inteligencją, aby pomóc w pisaniu kodu, generowaniu obrazów i podsumowaniach autorstwa.

„Ekscytująca i przerażająca zmiana technologiczna”

„Dziennikarstwo na całym świecie przechodzi kolejny okres ekscytujących i przerażających zmian technologicznych” – powiedział w oświadczeniu dyrektor projektu JournalismAI LSE, Charlie Beckett.

„Nasze badanie pokazuje, że nowe narzędzia generatywnej sztucznej inteligencji stanowią potencjalne zagrożenie dla integralności informacji i mediów informacyjnych. Ale oferują także niesamowitą szansę na uczynienie dziennikarstwa bardziej wydajnym, skutecznym i godnym zaufania. To badanie stanowi fascynujący migawkę wiadomości mediów w krytycznym momencie swojej historii”.

W miarę zwiększania się liczby nowych technologii w redakcjach, konieczne będzie włączenie ich do szkolenia młodych dziennikarzy.

„Widzę, że większość absolwentów dziennikarstwa przychodzących do naszych redakcji ma bardzo niewielkie zrozumienie, chyba że sami są z natury dociekliwi” – ​​cytuje się w raporcie biuro prasowe z Republiki Południowej Afryki.

Badanie uwypukliło również duże różnice między wykorzystaniem sztucznej inteligencji na całym świecie, przy czym „społeczne i gospodarcze korzyści wynikające ze sztucznej inteligencji” ograniczają się do Globalnej Północy.

W raporcie wskazano, że brak infrastruktury technicznej, ograniczone zasoby i wyzwania językowe na Globalnym Południu to jedne z różnych przyczyn nierówności.

Autorzy zalecili, aby redakcje lepiej informowały pracowników o sztucznej inteligencji, przypisywały komuś odpowiedzialność za dany temat w miejscu pracy, dokonywały przeglądu wpływu narzędzi sztucznej inteligencji, opracowywały wytyczne i współpracowały w przyszłości.