O nas
Kontakt

Sześć miesięcy temu eksperci wezwali do wstrzymania eksperymentów ze sztuczną inteligencją. Gdzie teraz jesteśmy?

Laura Kowalczyk

Sześć miesięcy temu eksperci wezwali do wstrzymania eksperymentów ze sztuczną inteligencją.  Gdzie teraz jesteśmy?

Liderzy technologii podpisali list otwarty wzywający do wstrzymania eksperymentów nad sztuczną inteligencją, ale czy ich ostrzeżenia zostały posłuchane?

Czy sztuczna inteligencja (AI) stwarza potencjalne zagrożenie egzystencjalne dla ludzkości? Takie jest zdanie Instytutu Przyszłości Życia (FLI), który sześć miesięcy temu opublikował list otwarty, wzywając do „natychmiastowego wstrzymania” dużych eksperymentów związanych ze sztuczną inteligencją.

List pojawił się w obliczu gwałtownego zainteresowania opinii publicznej generatywną sztuczną inteligencją, ponieważ aplikacje takie jak ChatGPT i Midjourney pokazały, jak technologia jest coraz bliższa replikowaniu ludzkich zdolności w pisaniu i sztuce.

Zdaniem sygnatariuszy listu – wśród których byli dyrektor generalny X, Tesli i SpaceX Elon Musk, współzałożyciel Apple Steve Wozniak i autor Yuval Noah Harari – pozornie nagły rozwój generatywnej sztucznej inteligencji wymagał wezwania do pauzy. Firmy takie jak OpenAI firmy ChatGPT i Google poproszono o rozważenie „głębokiego ryzyka dla społeczeństwa i ludzkości”, jakie może stwarzać ich technologia.

Można śmiało powiedzieć, że główni gracze nie nacisnęli przycisku pauzy.

Zamiast tego więcej firm dołączyło do wyścigu generatywnej sztucznej inteligencji z własnymi dużymi modelami językowymi (LLM), przy czym Meta wypuszcza Llama 2, a Anthropic prezentuje swojego rywala z ChatGPT Claude 2.

Niezależnie od tego, czy giganci technologiczni posłuchali ostrzeżeń, czy nie, list FLI rzeczywiście stanowił kamień milowy w tym, co wkrótce zostanie zapamiętane jako rok sztucznej inteligencji.

Mark Brakel, dyrektor ds. polityki instytutu, mówi, że nie spodziewał się odpowiedzi na otrzymany list, przy szerokim zainteresowaniu prasy i ponownym zasygnalizowaniu przez rządy pilnej potrzeby ustalenia, co zrobić w związku z szybkim postępem sztucznej inteligencji.

Odbyło się przesłuchanie w Senacie USA, podczas którego zacytowano ten list, co spowodowało formalną odpowiedź Parlamentu Europejskiego.

Brakel mówi TylkoGliwice Next, że nadchodzący światowy szczyt na temat bezpieczeństwa sztucznej inteligencji w Bletchley Park w Wielkiej Brytanii będzie dobrą okazją dla rządów do podjęcia działań tam, gdzie firmy nie chcą nacisnąć hamulca.

Mówi, że tam, gdzie do tej pory modnym hasłem była „generatywna sztuczna inteligencja”, wkrótce może stać się „agentyczną sztuczną inteligencją”, w której sztuczna inteligencja może faktycznie podejmować decyzje i podejmować działania autonomicznie.

„Myślę, że być może to właśnie widzimy linię trendu – widzimy też, jak OpenAI prawie oczyściło cały Internet z tekstu. Zaczynamy postrzegać scraping filmów i podcastów oraz Spotify jako alternatywne źródła danych, wideo i głosu” – mówi.

Coraz bliżej katastrofy?

Brakel zwraca uwagę, że chociaż „staliśmy się trochę jak „organizacja listowa””, FLI została założona w 2014 r. i zajmowała się trzema głównymi obszarami ryzyka na poziomie cywilizacyjnym: sztuczną inteligencją, biotechnologią i bronią nuklearną.

Na swojej stronie internetowej umieściła szczególnie uderzający film wideo, kosztownie wyprodukowaną fikcyjną relację z globalnej katastrofy Al w 2032 r. W obliczu napięć między Tajwanem a Chinami poleganie wojska na sztucznej inteligencji przy podejmowaniu decyzji prowadzi do totalnej wojny nuklearnej , wideo kończące się planetą rozświetloną bronią nuklearną.

Brakel uważa, że ​​zbliżyliśmy się do takiego scenariusza.

„Integracja sztucznej inteligencji w dowodzeniu i kontroli wojskowej wciąż postępuje, zwłaszcza w przypadku głównych mocarstw. Widzę jednak także większą chęć państw do wprowadzenia regulacji, szczególnie jeśli chodzi o autonomię w systemach broni konwencjonalnej” – powiedział.

Przyszły rok wygląda również obiecująco pod względem uregulowania autonomii systemów takich jak drony, łodzie podwodne i czołgi – mówi.

„Mam nadzieję, że umożliwi to również głównym mocarstwom osiągnięcie porozumienia w sprawie uniknięcia wypadków w zakresie dowodzenia i kontroli broni jądrowej, ale jest to o jeden poziom bardziej wrażliwy niż broń konwencjonalna”.

Nadchodzi rozporządzenie

Chociaż największe firmy zajmujące się sztuczną inteligencją nie wstrzymały swoich eksperymentów, ich przywódcy otwarcie przyznali, jak poważne ryzyko stwarza dla ludzkości sztuczna inteligencja i automatyzacja.

Dyrektor generalny OpenAI Sam Altman na początku tego roku wezwał amerykańskich polityków do ustanowienia rządowych regulacji dotyczących sztucznej inteligencji, ujawniając swoje „najgorsze obawy, że my… przemysł technologiczny, wyrządzimy światu znaczne szkody”. Dodał, że może się to zdarzyć „na wiele różnych sposobów”. Wezwał do powołania amerykańskiej lub globalnej agencji, która udzieliłaby licencji na najpotężniejsze systemy sztucznej inteligencji.

Europa może jednak okazać się liderem w zakresie regulacji dotyczących sztucznej inteligencji, gdyż trwają prace nad przełomową ustawą Unii Europejskiej dotyczącą sztucznej inteligencji.

Ostateczne szczegóły są nadal dopracowywane pomiędzy instytucjami unii, a Parlament Europejski zagłosował za nią przeważającą większością 499 głosów, przy 28 głosach przeciw i 93 wstrzymujących się.

Zgodnie z ustawą systemy sztucznej inteligencji zostaną podzielone na różne poziomy w zależności od poziomu ryzyka, przy czym najbardziej ryzykowne typy będą zabronione, a systemy o ograniczonym ryzyku będą wymagały określonego poziomu przejrzystości i nadzoru.

„Generalnie jesteśmy całkiem zadowoleni z ustawy” – mówi Brakel. „Jedną rzeczą, za którą argumentowaliśmy od samego początku, kiedy Komisja po raz pierwszy zaproponowała tę ustawę, jest to, że musi ona regulować systemy oparte na GPT. W tamtym czasie rozmawialiśmy o GPT3, a nie o 4 (modele transformatorów OpenAI), ale zasada pozostaje ta sama i spotykamy się z dużym lobbingiem dużych technologii przeciwko temu.

„Narracja jest taka sama w USA i w UE, że tylko użytkownicy systemów sztucznej inteligencji, czyli osoby wdrażające, wiedzą, w jakim kontekście są one wdrażane”.

Podaje przykład szpitala wykorzystującego chatbota do kontaktu z pacjentem. „Po prostu kupisz chatbota od OpenAI, nie będziesz go sam budować. A jeśli zdarzy się błąd, za który zostaniesz pociągnięty do odpowiedzialności, ponieważ udzieliłeś porady lekarskiej, której nie powinieneś, to zdecydowanie musisz zrozumieć, jaki rodzaj produktu kupiłeś. I naprawdę należy podzielić się częścią tej odpowiedzialności.”

Podczas gdy Europa oczekuje na ostateczne sformułowanie unijnego aktu prawnego dotyczącego sztucznej inteligencji, światowy szczyt dotyczący bezpieczeństwa sztucznej inteligencji, który odbędzie się 1 listopada, powinien być kolejnym wydarzeniem, które zapewni pewien wgląd w to, jak przywódcy na całym świecie będą podchodzić do regulacji dotyczących sztucznej inteligencji w najbliższej przyszłości.