O nas
Kontakt

„Musimy domagać się większej kontroli”: w jaki sposób firmy technologiczne mogą lepiej rozwiązać problem stronniczości sztucznej inteligencji?

Laura Kowalczyk

„Musimy domagać się większej kontroli”: w jaki sposób firmy technologiczne mogą lepiej rozwiązać problem stronniczości sztucznej inteligencji?

Narzędzia sztucznej inteligencji (AI) – od algorytmów po oprogramowanie generatywne – mają wbudowane uprzedzenia. Dlaczego więc problem nie został rozwiązany?

Od lat uznaje się, że narzędzia sztucznej inteligencji (AI), w tym algorytmy podejmowania decyzji i oprogramowanie generatywne, mogą mieć uprzedzenia podobne do ludzkich. Dlaczego więc najnowsze wydania wciąż je pokazują?

Po części duże modele językowe, takie jak oryginalny GPT OpenAI, są szkolone na obszernych danych, więc poznanie źródeł błędów może być skomplikowane.

Na przykład GPT został wyszkolony na danych z Internetu – których szczegółów nie ujawniono. Własni badacze OpenAI powiedzieli w 2020 r.: „Modele wyszkolone przez Internet mają uprzedzenia na skalę internetową; modele mają tendencję do odzwierciedlania stereotypów obecnych w ich danych szkoleniowych”.

Kiedy wypuszczono jego GPT-3, okazało się, że odtwarza seksistowskie, rasistowskie i religijne stereotypy.

„Na etapie (rozwoju) powinny istnieć środki w celu zidentyfikowania potencjalnych uprzedzeń oraz ich złagodzenia i rozwiązania” – powiedział TylkoGliwice Next dr Mhairi Aitken, pracownik ds. etyki w programie polityki publicznej w Instytucie Alana Turinga.

Globalna społeczność naciska na większą przejrzystość, w tym wsparcie dla rozwoju sztucznej inteligencji typu open source. Rośnie zapotrzebowanie na większą kontrolę i odpowiedzialność firm Big Tech w celu zminimalizowania i rozwiązania problemów związanych z uprzedzeniami.

„Myślę, że musimy wymagać znacznie większej kontroli w fazie rozwoju i o wiele większej odpowiedzialności dużych firm technologicznych, aby wiedzieć, co robią, aby zminimalizować i wyeliminować uprzedzenia” – dodała.

A jeśli te narzędzia są tak wadliwe, dlaczego w ogóle zostały upublicznione?

„Ich wydanie było spowodowane komercyjną konkurencyjnością, a nie wartością dla społeczeństwa” – powiedział Aitken.

Prace nad narzędziami AI wciąż trwają

Trwają prace nad stworzeniem bardziej odpowiedzialnej sztucznej inteligencji, w tym wyciąganie wniosków z poprzednich wersji tej technologii.

Firmy wprowadziły zabezpieczenia zapobiegające nadużyciom, takie jak interfejs API moderacji OpenAI, który ma oznaczać szkodliwe treści.

„Czy musimy reprodukować społeczeństwo takim, jakie jest? A może musimy reprezentować społeczeństwo takim, jakim byśmy chcieli? Ale w takim razie, według czyjej wyobraźni?

Giada Pistilli

Główny etyk w Hugging Face

Rząd USA pomógł również skoordynować tegoroczną konwencję hakerską w celu publicznej oceny systemów sztucznej inteligencji.

Pomyśl o tym jako o masowym ćwiczeniu „czerwonego zespołu” mającym na celu zbadanie, jak coś może pójść nie tak – technika szeroko stosowana w cyberbezpieczeństwie.

Inną techniką stosowaną w walce z uprzedzeniami jest uczenie się przez wzmacnianie na podstawie informacji zwrotnych od ludzi, powiedział TylkoGliwice Next Giada Pistilli, etyk z Hugging Face.

Dzięki temu pracownicy ludzcy oceniają wyniki modelu AI, aby osiągnąć bardziej naturalne i mniej szkodliwe wyniki.

Ale jest to proces, który jest również nieco ograniczony, a każda osoba wnosi własne uprzedzenia.

W przypadku Pistilli musimy zadać sobie pytanie, czego chcemy od tych modeli.

„Czy musimy reprodukować społeczeństwo takim, jakie jest? Czy też musimy reprezentować społeczeństwo takim, jakie byśmy chcieli? Ale jeśli odpowiedź jest w drugim przypadku, zgodnie z czyją wyobraźnią?”

Anthropic, firma założona przez byłych badaczy OpenAI, stworzyła własnego chatbota, Claude.

Aby upewnić się, że Claude będzie zachowywał się tak dobrze, jak to tylko możliwe, wyposażyli go w konstytucję, która „czerpie z wielu źródeł, w tym z Deklaracji Praw Człowieka ONZ, najlepszych praktyk i zasad zaufania i bezpieczeństwa zaproponowanych przez inne laboratoria badawcze AI”, zgodnie z na firmowy blog.

„Kiedy te modele są wypuszczane, nie są gotowymi produktami. Są więc udostępniane publicznie, aby ludzie mogli z nich korzystać w celu dalszego ich udoskonalania, testowania ich w celu opracowania kolejnej iteracji modelu” – powiedział Aitken.

„A więc kiedy ludzie ich używają, zwłaszcza gdy są udostępniane bezpłatnie, wiesz, ludzie są wtedy częścią procesu rozwoju, niekoniecznie będąc tego świadomym”.

Czy firmy AI naprawdę poświęcają się etyce?

Firmy produkujące sztuczną inteligencję publicznie ogłaszają, że mają zespoły ds. etyki, ale niektórzy twierdzą, że stało się jasne, że firmy te szybko obejdą etykę w dążeniu do innowacji.

Wszystkie te decyzje są decyzjami ludzkimi i nigdy nie będą wolne od uprzedzeń.

dr Mhairi Aitken

Stypendysta ds. etyki w Instytucie Alana Turinga

Aitken mówi, że potrzebujemy „podejścia, które naprawdę zapewni odpowiedzialność”.

„I nie może to być po prostu coś, co odbywa się za zamkniętymi drzwiami, gdzie nikt nie wie, czy rzeczywiście zrobili coś, aby rozwiązać zidentyfikowane problemy lub szkody” – dodała.

Niesławne zwolnienie przez Google w 2021 r. Timnita Gebru, współprzewodniczącego zespołu ds. etyki sztucznej inteligencji firmy, oraz Margaret Mitchell, innej czołowej badaczki etyki, doprowadziło do kontroli zaangażowania firm technologicznych w etykę.

The Washington Post również niedawno poinformował, że zwolnienia w firmach technologicznych poważnie wpłynęły również na zespoły etyczne.

Według Pistilli rośnie świadomość tego, o co toczy się gra, jeśli chodzi o stronniczość w sztucznej inteligencji.

„Myślę, że będzie rosło zapotrzebowanie na ludzi z nauk społecznych i humanistycznych, którzy interesują się tymi zagadnieniami” – mówi.

Ale sztuczna inteligencja jest zasadniczo produktem ludzi.

„Wartości kształtują decyzje dotyczące używanych zestawów danych, sposobu projektowania modeli, sposobów ich opracowywania lub funkcji, do których są używane. Wszystkie te decyzje są decyzjami ludzkimi i nigdy nie idą być wolnym od uprzedzeń” – powiedział Aitken.