O nas
Kontakt

Europoglądy. W wyborach w 2024 r. musimy chronić mniejszości przed uprzedzeniami wzmocnionymi przez sztuczną inteligencję

Laura Kowalczyk

Europoglądy.  W wyborach w 2024 r. musimy chronić mniejszości przed uprzedzeniami wzmocnionymi przez sztuczną inteligencję

Dziennikarze muszą oddać głos niedostatecznie reprezentowanym i upośledzonym społecznościom, które są odbiorcami większości dezinformacji, która napędza polaryzujące narracje i podważa zaufanie do samej demokracji, pisze Meera Selva.

Rok 2024 będzie rokiem wyborów napędzanych kampaniami wspieranymi przez sztuczną inteligencję, globalnym konfliktem i coraz bardziej wszechobecnymi narzędziami sztucznej inteligencji.

W 65 wyborach do urn pójdzie około 2 miliardy ludzi, aby wybrać przywódców, którzy będą prowadzić kampanie, komunikować się i zbierać fundusze w Internecie oraz którzy wiedzą, że ich kadencja zostanie określona w przestrzeni cyfrowej.

Głosowanie odbędzie się w niektórych z najgęściej zaludnionych krajów na świecie, w których media zostały wywrócone do góry nogami przez komunikację cyfrową, w tym w Indonezji, Indiach i Meksyku.

Wybory te będą jednymi z pierwszych, które odbędą się po nagłej popularyzacji technologii generatywnej sztucznej inteligencji, co jeszcze bardziej pogłębia niepewność co do ich przebiegu.

Istnieje argument, że obawy przed sztuczną inteligencją są przesadzone i zachowanie większości ludzi nie ulegnie zmianie pod wpływem dezinformacji generowanej przez sztuczną inteligencję. Rok 2024 dostarczy dowodów na to, czy to prawda.

Małe grupy będą odgrywać dużą rolę. Obecnie wybory są często tak zacięte, że o ostatecznych wynikach może zadecydować proporcjonalnie niewielka liczba wyborców.

Nieufność lub wrogość wobec jednej małej grupy może ostatecznie zdefiniować całą debatę narodową. Społeczności kolorowe i społeczności imigrantów mogą w nieproporcjonalnym stopniu zostać dotknięte dezinformacją w czasie wyborów, zarówno teoriami spiskowymi podważającymi ich zaufanie do procesu, jak i nieprawidłowymi informacjami na temat sposobu głosowania.

Dlatego też w tych wyborach na pierwszym planie muszą znaleźć się potrzeby i głosy społeczności mniejszościowych. To, czy narzędzia AI pomogą, czy przeszkodzi, pozostaje otwartym pytaniem.

Żadne kontrole redakcyjne nie pogorszą sytuacji

Niektóre z największych zagrożeń, jakie szeroko dostępne technologie sztucznej inteligencji będą stanowić podczas światowych wyborów, wynikają z braku różnorodności w projektowaniu i przywództwie.

Istnieje już tendencja do rozprzestrzeniania się dezinformacji poprzez błędne tłumaczenia — słowa, które mają inne, często bardziej negatywne konotacje, gdy są tłumaczone z jednego języka, zwykle angielskiego, na inny.

Sytuacja będzie się tylko pogarszać, jeśli tłumaczenia oparte na sztucznej inteligencji będą wykonywane szybko, bez kontroli redakcyjnej i nadzoru ze strony rodzimych użytkowników języka.

cichy protest ku pamięci zamordowanego dziennikarza Jana Kuciaka i jego dziewczyny Martiny Kusnirovej, widoczna na zdjęciu, w Bratysławie
cichy protest ku pamięci zamordowanego dziennikarza Jana Kuciaka i jego dziewczyny Martiny Kusnirovej, widoczna na zdjęciu, w Bratysławie

Niektóre narzędzia sztucznej inteligencji wykorzystują również istniejące uprzedzenia wobec mniejszości: podczas jesiennych wyborów na Słowacji rozprzestrzeniło się rzekome nagranie audio jednego z kandydatów opowiadającego dziennikarzowi o planie zakupu głosów od mniejszości romskiej, która jest strukturalnie dyskryminowana i często postrzegana z wrogością szybko na Facebooku.

Prawda o zmianie nagrania przyszła zbyt późno: wspomniany kandydat Michal Simecka przegrał z byłym premierem Robertem Ficą, który powrócił do władzy po rezygnacji w 2018 r. po oburzeniu po zabójstwie dziennikarza śledczego.

Wykorzystywanie technologii do ciągłego dyskryminowania innych

W Indiach istnieją obawy, że popularne narzędzia sztucznej inteligencji pogłębiają istniejącą dyskryminację ze względu na kastę, religię i pochodzenie etniczne.

Podczas zamieszek społecznych w Delhi w 2020 r. policja wykorzystała technologię rozpoznawania twarzy opartą na sztucznej inteligencji, aby aresztować uczestników zamieszek. Krytycy zwracają uwagę, że w miarę zbliżania się wyborów w kraju istnieje większe prawdopodobieństwo wykorzystania tej technologii przeciwko muzułmanom, społecznościom tubylczym i kascie dalitów.

Obawy te potwierdzają badania przeprowadzone na Queens University w Belfaście, które wykazały inne sposoby, w jakie wykorzystanie sztucznej inteligencji w procesach wyborczych może zaszkodzić mniejszościom.

Jeżeli technologia ta będzie wykorzystywana do administrowania listami mailingowymi lub podejmowania decyzji o lokalizacji lokali wyborczych, istnieje realne ryzyko, że spowoduje to ignorowanie lub złą obsługę grup mniejszościowych.

Policjanci kierują wyborców do odpowiednich kabin w lokalu wyborczym utworzonym w rządowej szkole w Bengaluru, maj 2023 r.
Policjanci kierują wyborców do odpowiednich kabin w lokalu wyborczym utworzonym w rządowej szkole w Bengaluru, maj 2023 r.

Jeżeli technologia ta będzie wykorzystywana do administrowania listami mailingowymi lub podejmowania decyzji o lokalizacji lokali wyborczych, istnieje realne ryzyko, że spowoduje to ignorowanie lub złą obsługę grup mniejszościowych.

Wiele problemów związanych z różnorodnością treści generowanych przez sztuczną inteligencję wynika ze zbiorów danych, na których trenuje się technologię, ale demografia zespołów AI również ma znaczenie.

Raport McKinsey na temat stanu sztucznej inteligencji w 2022 r. pokazuje, że kobiety są znacząco niedostatecznie reprezentowane, a szokujące 29% respondentów stwierdziło, że nie zatrudniają pracowników z mniejszości pracujących nad rozwiązaniami AI.

Jak niedawno zauważyła badaczka sztucznej inteligencji, dr Sasha Luccioni, kobiety są nawet wykluczane ze sposobu, w jaki opisuje się sztuczną inteligencję.

Sztuczna inteligencja ma również zalety

Jest jasne, że sztuczna inteligencja odegra znaczącą rolę w przyszłorocznych wyborach. W dużej mierze będzie to korzystne: można je wykorzystać do zasilania chatbotów w celu angażowania obywateli w procesy polityczne i może pomóc kandydatom łatwiej zrozumieć przesłania płynące ze ścieżki kampanii.

Widzę to na własne oczy w mojej codziennej pracy: Internews współpracuje z lokalnymi, niezależnymi mediami na całym świecie, które w kreatywny sposób wykorzystują narzędzia AI, aby poprawić dostęp społeczeństwa do dobrych informacji.

W Zimbabwe Centrum Innowacji i Technologii wykorzystuje awatara wygenerowanego przez sztuczną inteligencję jako czytnika wiadomości w czasie rzeczywistym, którego mowa może być dostosowana do lokalnych akcentów i dialektów, docierając do społeczności rzadko reprezentowanych w redakcjach.

Laureatka nagrody Pulitzera Maria Ressa ostrzegła, że ​​Filipiny to kanarek w kopalni węgla na styku technologii, komunikacji i demokracji; wszystko, co się tam wydarzy, wydarzy się w pozostałej części świata w ciągu kilku lat.

Filipińska dziennikarka Maria Ressa, laureatka Pokojowej Nagrody Nobla w 2021 r. i dyrektor generalna Rappler, rozmawia z reporterami po uniewinnieniu przez Sąd Okręgowy w Pasig, wrzesień 2023 r.
Filipińska dziennikarka Maria Ressa, laureatka Pokojowej Nagrody Nobla w 2021 r. i dyrektor generalna Rappler, rozmawia z reporterami po uniewinnieniu przez Sąd Okręgowy w Pasig, wrzesień 2023 r.

W innych częściach Afryki redakcje wykorzystują narzędzia sztucznej inteligencji do wykrywania stronniczości i dyskryminacji w swoich artykułach.

Te same narzędzia sztucznej inteligencji niemal na pewno zostaną wykorzystane przez złośliwe podmioty do generowania fałszywych informacji, podsycania dezinformacji i zniekształcania debaty publicznej z zawrotną szybkością.

Na przykład w mediach społecznościowych dyskurs polityczny Filipin został wywrócony do góry nogami do tego stopnia, że ​​ich najsłynniejsza redaktorka, laureatka nagrody Pulitzera, Maria Ressa, ostrzegła, że ​​Filipiny to kanarek w kopalni węgla na styku technologii, komunikacja i demokracja; wszystko, co się tam wydarzy, wydarzy się w pozostałej części świata w ciągu kilku lat.

Występuje jednak sprzeciw i społeczeństwo filipińskie podejmuje działania — przed przyszłorocznymi wyborami organizacje medialne i społeczeństwo obywatelskie połączyły siły, aby stworzyć ramy etyczne dotyczące sztucznej inteligencji jako punkt wyjścia dla tego, jak dziennikarze mogą w sposób odpowiedzialny korzystać z tej nowej technologii.

Udzielenie głosu odbiorcom pozostaje niezwykle istotne

Ale tego rodzaju inicjatywy to tylko część rozwiązania. Samo dziennikarstwo nie jest w stanie rozwiązać problemów związanych z generatywną i programową sztuczną inteligencją podczas wyborów, tak samo nie może rozwiązać problemów dezinformacji i dezinformacji.

Jest to kwestia, nad którą organy regulacyjne, firmy technologiczne i komisje wyborcze muszą pracować wspólnie z grupami społeczeństwa obywatelskiego, ale samo to również nie wystarczy.

Bardzo ważne jest, aby dziennikarze dali głos niedostatecznie reprezentowanym i upośledzonym społecznościom, które są odbiorcami większości dezinformacji, które napędzają polaryzujące narracje i podważają zaufanie do wyborów, a ostatecznie do samej demokracji.

Nie poświęciliśmy wystarczającej uwagi społecznościom i grupom mniejszościowym znajdującym się w niedostatecznym stopniu, kiedy media społecznościowe po raz pierwszy wywróciły do ​​góry nogami procesy wyborcze na całym świecie, przyczyniając się do odstępstw i podziałów demokracji, które obserwujemy dzisiaj. Nie popełniajmy dwa razy tego samego błędu.