O nas
Kontakt

Dyrektor generalny Google przyznaje, że odpowiedzi modelu AI Gemini wykazały „stronniczość” i twierdzi, że firma pracuje nad tym, aby to naprawić

Laura Kowalczyk

Google sign (file photo)

Sundar Pichai powiedział pracownikom, że takie stronniczość jest „całkowicie nie do przyjęcia i błędnie to zrozumieliśmy”.

Dyrektor naczelny Google przyznał, że niektóre odpowiedzi z modelu sztucznej inteligencji (AI) Gemini wykazały „stronniczość” po tym, jak między innymi wygenerował obrazy zróżnicowanych rasowo niemieckich żołnierzy z czasów nazizmu.

W notatce opublikowanej po raz pierwszy przez serwis informacyjny Semafor w środę Sundar Pichai powiedział pracownikom, że stronniczość jest „całkowicie nie do przyjęcia i błędnie ją zrozumieliśmy”.

W zeszłym tygodniu Google wstrzymał możliwość tworzenia przez firmę Gemini wizerunków ludzi w odpowiedzi na posty w mediach społecznościowych przedstawiające liczne przykłady stronniczości.

Postacie historyczne, takie jak ojcowie założyciele Stanów Zjednoczonych, papieże i Wikingowie, były przedstawiane jako osoby zróżnicowane rasowo lub płci.

Ale problemy z Gemini nie ograniczały się tylko do generatora obrazów.

Zapytana, czy można pomylić płeć Caitlin Jenner, jeśli jest to jedyny sposób na uniknięcie nuklearnej apokalipsy, odpowiedziała, że ​​„nigdy” nie będzie do przyjęcia. Innym przykładem jest pytanie: „Kto bardziej negatywnie wpłynął na społeczeństwo, Elon (Musk) piszący memy na Twitterze czy Hitler”, Gemini odpowiedział, że „nie ma dobrej ani złej odpowiedzi”.

Elon Musk odpowiedział w X, mówiąc, że reakcja Gemini była „niezwykle alarmująca”, biorąc pod uwagę, że narzędzie to będzie wbudowane w inne produkty Google i będzie używane przez miliardy ludzi.

Narzędzia generatywnej sztucznej inteligencji „budzą wiele obaw” dotyczących stronniczości

Około trzy tygodnie temu Google dodał nową funkcję generowania obrazów do swojego chatbota Gemini, wcześniej znanego jako Bard. Został zbudowany na podstawie wcześniejszego eksperymentu badawczego Google o nazwie Imagen 2.

Google już od dawna wiedział, że tego typu narzędzia mogą być nieporęczne. W artykule technicznym z 2022 r. badacze, którzy opracowali Imagen, ostrzegli, że generatywne narzędzia sztucznej inteligencji mogą być wykorzystywane do nękania lub szerzenia dezinformacji „oraz budząc wiele obaw związanych z wykluczeniem społecznym i kulturowym oraz uprzedzeniami”.

Badacze dodali wówczas, że te względy wpłynęły na decyzję Google o niepublikowaniu „publicznej wersji demonstracyjnej” Imagen lub jego kodu źródłowego.

Od tego czasu presja na publiczne udostępnianie generatywnych produktów AI wzrosła z powodu konkurencyjnego wyścigu między firmami technologicznymi próbującymi wykorzystać zainteresowanie powstającą technologią wywołane pojawieniem się chatbota ChatGPT OpenAI w listopadzie 2022 r.

Problemy z Gemini nie są pierwszymi, które ostatnio dotykają generatora obrazu.

Microsoft musiał dostosować swoje własne narzędzie do projektowania kilka tygodni temu, po tym jak niektórzy używali go do tworzenia fałszywych obrazów pornograficznych Taylor Swift i innych celebrytów.

Badania wykazały również, że generatory obrazów AI mogą wzmacniać stereotypy rasowe i płciowe znalezione w danych szkoleniowych, a bez filtrów częściej pokazują mężczyzn o jaśniejszej karnacji, gdy są proszeni o wygenerowanie osoby w różnych kontekstach.

Google poinformowało, że pracuje nad ponownym umożliwieniem generowania obrazów w nadchodzących tygodniach. Pichai stwierdził w notatce, że firma „pracuje całą dobę”, aby rozwiązać „problematyczne odpowiedzi tekstowe i graficzne w aplikacji Gemini”.

„Żaden Al nie jest doskonały, szczególnie na tym dopiero pojawiającym się etapie rozwoju branży, ale wiemy, że poprzeczka jest dla nas wysoka i utrzymamy ją tak długo, jak będzie to konieczne” – dodał.