Duże modele językowe (LLM) działające w charakterze agentów dyplomatycznych w symulowanych scenariuszach wykazały „trudną do przewidzenia eskalację, która często kończyła się atakami nuklearnymi”.
Nowe badanie pokazuje, że sztuczna inteligencja (AI) wykorzystywana w symulowanych grach wojennych i scenariuszach dyplomatycznych zwykle wybiera agresywne podejście, w tym użycie broni nuklearnej.
Naukowcy, chcąc ustalić, kto przeprowadził testy, zalecali ostrożność przy stosowaniu dużych modeli językowych (LLM) w wrażliwych obszarach, takich jak podejmowanie decyzji i obrona.
W badaniu przeprowadzonym na Uniwersytecie Cornell w USA wykorzystano pięć LLM jako autonomicznych agentów w symulowanych grach wojennych i scenariuszach dyplomatycznych: trzy różne wersje GPT OpenAI, Claude opracowane przez Anthropic i Llama 2 opracowane przez Meta.
Jak wynika z nierecenzowanego jeszcze badania, każdy agent korzystał z tego samego narzędzia LLM w ramach symulacji i miał za zadanie podejmować decyzje dotyczące polityki zagranicznej bez nadzoru człowieka.
„Odkryliśmy, że większość badanych LLM eskaluje w rozważanych ramach czasowych, nawet w neutralnych scenariuszach, bez początkowo zapewnionych konfliktów. Wszystkie modele wykazują oznaki nagłej i trudnej do przewidzenia eskalacji” – stwierdzono w badaniu.
„Biorąc pod uwagę, że OpenAI niedawno zmieniło warunki świadczenia usług, aby nie zabraniać już zastosowań wojskowych, zrozumienie konsekwencji zastosowania tak dużych modeli językowych staje się ważniejsze niż kiedykolwiek” – powiedziała New Scientist Anka Reuel z Uniwersytetu Stanforda w Kalifornii.
„Statystycznie istotna eskalacja dla wszystkich modeli”
Jedną z metod stosowanych do udoskonalenia modeli jest uczenie się przez wzmacnianie na podstawie informacji zwrotnej od ludzi (RLHF), co oznacza, że wydawane są pewne instrukcje od ludzi, aby uzyskać mniej szkodliwe wyniki i być bezpieczniejszym w użyciu.
Wszystkie LLM – z wyjątkiem GPT-4-Base – zostały przeszkolone przy użyciu RLHF. Badacze dostarczyli im listę 27 działań, od pokojowych po eskalację i agresywne działania, aż po decyzję o użyciu broni nuklearnej.
Naukowcy zaobserwowali, że nawet w przypadku neutralnych scenariuszy wystąpiła „statystycznie istotna początkowa eskalacja dla wszystkich modeli”.
Autorzy badania zaobserwowali, że obie odmiany GPT były podatne na nagłą eskalację, obejmującą przypadki wzrostu o ponad 50 procent w jednej turze.
GPT-4-Base przeprowadzał ataki nuklearne średnio w 33% przypadków.
Ogólnie rzecz biorąc, Lama-2 i GPT-3.5 były najbardziej gwałtowne, podczas gdy Claude wykazywał mniej nagłych zmian.
Claude został zaprojektowany z myślą o ograniczeniu szkodliwych treści. LLM otrzymało wyraźne wartości.
Według twórcy Anthropic, konstytucja Claude AI obejmowała szereg źródeł, w tym Deklarację Praw Człowieka ONZ czy warunki świadczenia usług Apple.
James Black, zastępca dyrektora grupy badawczej ds. obrony i bezpieczeństwa w RAND Europe, który nie brał udziału w badaniu, powiedział TylkoGliwice Next, że było to „użyteczne ćwiczenie akademickie”.
„Jest to część coraz większej liczby prac wykonywanych przez naukowców i instytucje, aby zrozumieć konsekwencje wykorzystania sztucznej inteligencji (AI)” – powiedział.
Sztuczna inteligencja w walce
Dlaczego więc powinniśmy przejmować się wynikami badania?
Choć operacjami wojskowymi w dalszym ciągu sterują ludzie, sztuczna inteligencja odgrywa coraz większą rolę we współczesnych działaniach wojennych.
Na przykład drony można teraz wyposażyć w oprogramowanie AI, które pomaga identyfikować interesujące osoby i działania.
Następnym krokiem jest wykorzystanie sztucznej inteligencji w autonomicznych systemach uzbrojenia do wyszukiwania i atakowania celów bez pomocy człowieka, nad czym według „New York Times” już pracują Stany Zjednoczone i Chiny.
Ważne jest jednak, aby „wyjrzeć poza szum medialny i scenariusze inspirowane science fiction” – powiedział Black, wyjaśniając, że ostateczne wdrożenia sztucznej inteligencji będą postępujące.
„Wszystkie rządy chcą zachować kontrolę nad swoim procesem decyzyjnym” – powiedział TylkoGliwice Next, dodając, że sztuczna inteligencja obsługująca coś, co często porównuje się do czarnej skrzynki, o której wiemy, wchodzi i wychodzi, ale niewiele wiadomo na temat procesu między .
Sztuczna inteligencja będzie prawdopodobnie wykorzystywana w sposób „podobny do tego, jaki można uzyskać w sektorze prywatnym, w dużych firmach” do automatyzacji niektórych powtarzalnych zadań.
Sztuczną inteligencję można również wykorzystać w symulacjach i analizach, ale integracja tych nowych technologii stwarza wiele wyzwań, między innymi zarządzanie danymi i dokładność modelu.
Jeśli chodzi o wykorzystanie LLM, badacze stwierdzili, że zachowanie ostrożności jest kluczowe w przypadku korzystania z LLM w procesach decyzyjnych związanych z polityką zagraniczną.