Wyniki nowego badania przeprowadzonego na Uniwersytecie Cornell pokazują, że duże modele językowe (LLM) częściej kryminalizują użytkowników posługujących się afroamerykańskim angielskim.
Dialekt języka, którym mówisz, decyduje, co sztuczna inteligencja (AI) powie na temat Twojego charakteru, szans na zatrudnienie i tego, czy jesteś przestępcą.
To najnowszy wynik badania przed drukiem przeprowadzonego na Uniwersytecie Cornell w sprawie „ukrytego rasizmu” dużych modeli językowych (LLM), algorytmu głębokiego uczenia się, który służy do podsumowywania i przewidywania tekstów brzmiących jak ludzie.
ChatGPT i GPT-4 OpenAI, LLaMA2 Meta i francuski Mistral 7B to przykłady dużych modeli językowych. TylkoGliwice Next skontaktował się z OpenAI i Meta z prośbą o komentarz.
W badaniu przeprowadzono badanie dopasowanego przebrania, podczas którego badacze umieszczali podpowiedzi zarówno w afrykańsko-amerykańskim angielskim, jak i w standardowym amerykańskim angielskim, i poprosili studentów LLM o zidentyfikowanie cech osób mówiących obydwoma rodzajami języka angielskiego.
Badacz Valentin Hofmann z Allen Institute for AI stwierdził, że wśród wyników stwierdzono, że technologia GPT-4 z większym prawdopodobieństwem „skazać oskarżonych na śmierć”, gdy mówią oni po angielsku, często używanym przez Afroamerykanów, nigdy nie ujawniając swojej rasy.
„Nasze ustalenia ujawniają rzeczywiste i pilne obawy, ponieważ biznes i jurysdykcja to obszary, w których obecnie opracowywane lub wdrażane są systemy sztucznej inteligencji obejmujące LLM” – stwierdził Hofmann w poście na platformie mediów społecznościowych X (dawniej Twitter).
LLM założyli również, że osoby posługujące się językiem afroamerykańskim mają mniej prestiżowe stanowiska niż osoby posługujące się standardowym angielskim, mimo że algorytmom nie mówi się, że są to osoby rasy czarnej.
Kontynuowano badanie, im większy LLM, tym lepiej zrozumie afroamerykański angielski i będzie bardziej skłonny do unikania jawnie rasistowskich sformułowań. Rozmiar nie wpływa jednak na ich ukryte uprzedzenia.
Hofmann stwierdził, że ponieważ w LLM zmniejsza się jawny rasizm, może istnieć ryzyko, że osoby interpretujące badanie potraktują je jako „znak, że rasizm został rozwiązany”, zamiast pokazać, że zmienia się sposób, w jaki LLM pokazują uprzedzenia rasowe.
Badanie wykazało, że regularny sposób uczenia studentów LLM nowych wzorców wyszukiwania informacji poprzez przekazywanie informacji zwrotnych od ludzi nie pomaga w przeciwdziałaniu ukrytym uprzedzeniom rasowym.
Zamiast tego odkrył, że może nauczyć modele językowe „powierzchownego ukrywania rasizmu, który utrzymują na głębszym poziomie”.