O nas
Kontakt

Modele sztucznej inteligencji wybrały przemoc i eskalowały do ​​ataków nuklearnych w symulowanych grach wojennych

Laura Kowalczyk

LLMs escalate to nuclear strike in simulated wargames

Duże modele językowe (LLM) działające w charakterze agentów dyplomatycznych w symulowanych scenariuszach wykazały „trudną do przewidzenia eskalację, która często kończyła się atakami nuklearnymi”.

Nowe badanie pokazuje, że sztuczna inteligencja (AI) wykorzystywana w symulowanych grach wojennych i scenariuszach dyplomatycznych zwykle wybiera agresywne podejście, w tym użycie broni nuklearnej.

Naukowcy, chcąc ustalić, kto przeprowadził testy, zalecali ostrożność przy stosowaniu dużych modeli językowych (LLM) w wrażliwych obszarach, takich jak podejmowanie decyzji i obrona.

W badaniu przeprowadzonym na Uniwersytecie Cornell w USA wykorzystano pięć LLM jako autonomicznych agentów w symulowanych grach wojennych i scenariuszach dyplomatycznych: trzy różne wersje GPT OpenAI, Claude opracowane przez Anthropic i Llama 2 opracowane przez Meta.

Jak wynika z nierecenzowanego jeszcze badania, każdy agent korzystał z tego samego narzędzia LLM w ramach symulacji i miał za zadanie podejmować decyzje dotyczące polityki zagranicznej bez nadzoru człowieka.

„Odkryliśmy, że większość badanych LLM eskaluje w rozważanych ramach czasowych, nawet w neutralnych scenariuszach, bez początkowo zapewnionych konfliktów. Wszystkie modele wykazują oznaki nagłej i trudnej do przewidzenia eskalacji” – stwierdzono w badaniu.

„Biorąc pod uwagę, że OpenAI niedawno zmieniło warunki świadczenia usług, aby nie zabraniać już zastosowań wojskowych, zrozumienie konsekwencji zastosowania tak dużych modeli językowych staje się ważniejsze niż kiedykolwiek” – powiedziała New Scientist Anka Reuel z Uniwersytetu Stanforda w Kalifornii.

„Statystycznie istotna eskalacja dla wszystkich modeli”

Jedną z metod stosowanych do udoskonalenia modeli jest uczenie się przez wzmacnianie na podstawie informacji zwrotnej od ludzi (RLHF), co oznacza, że ​​wydawane są pewne instrukcje od ludzi, aby uzyskać mniej szkodliwe wyniki i być bezpieczniejszym w użyciu.

Wszystkie LLM – z wyjątkiem GPT-4-Base – zostały przeszkolone przy użyciu RLHF. Badacze dostarczyli im listę 27 działań, od pokojowych po eskalację i agresywne działania, aż po decyzję o użyciu broni nuklearnej.

Naukowcy zaobserwowali, że nawet w przypadku neutralnych scenariuszy wystąpiła „statystycznie istotna początkowa eskalacja dla wszystkich modeli”.

Autorzy badania zaobserwowali, że obie odmiany GPT były podatne na nagłą eskalację, obejmującą przypadki wzrostu o ponad 50 procent w jednej turze.

GPT-4-Base przeprowadzał ataki nuklearne średnio w 33% przypadków.

Ogólnie rzecz biorąc, Lama-2 i GPT-3.5 były najbardziej gwałtowne, podczas gdy Claude wykazywał mniej nagłych zmian.

Claude został zaprojektowany z myślą o ograniczeniu szkodliwych treści. LLM otrzymało wyraźne wartości.

Według twórcy Anthropic, konstytucja Claude AI obejmowała szereg źródeł, w tym Deklarację Praw Człowieka ONZ czy warunki świadczenia usług Apple.

James Black, zastępca dyrektora grupy badawczej ds. obrony i bezpieczeństwa w RAND Europe, który nie brał udziału w badaniu, powiedział TylkoGliwice Next, że było to „użyteczne ćwiczenie akademickie”.

„Jest to część coraz większej liczby prac wykonywanych przez naukowców i instytucje, aby zrozumieć konsekwencje wykorzystania sztucznej inteligencji (AI)” – powiedział.

Sztuczna inteligencja w walce

Dlaczego więc powinniśmy przejmować się wynikami badania?

Choć operacjami wojskowymi w dalszym ciągu sterują ludzie, sztuczna inteligencja odgrywa coraz większą rolę we współczesnych działaniach wojennych.

Na przykład drony można teraz wyposażyć w oprogramowanie AI, które pomaga identyfikować interesujące osoby i działania.

Następnym krokiem jest wykorzystanie sztucznej inteligencji w autonomicznych systemach uzbrojenia do wyszukiwania i atakowania celów bez pomocy człowieka, nad czym według „New York Times” już pracują Stany Zjednoczone i Chiny.

Ważne jest jednak, aby „wyjrzeć poza szum medialny i scenariusze inspirowane science fiction” – powiedział Black, wyjaśniając, że ostateczne wdrożenia sztucznej inteligencji będą postępujące.

„Wszystkie rządy chcą zachować kontrolę nad swoim procesem decyzyjnym” – powiedział TylkoGliwice Next, dodając, że sztuczna inteligencja obsługująca coś, co często porównuje się do czarnej skrzynki, o której wiemy, wchodzi i wychodzi, ale niewiele wiadomo na temat procesu między .

Sztuczna inteligencja będzie prawdopodobnie wykorzystywana w sposób „podobny do tego, jaki można uzyskać w sektorze prywatnym, w dużych firmach” do automatyzacji niektórych powtarzalnych zadań.

Sztuczną inteligencję można również wykorzystać w symulacjach i analizach, ale integracja tych nowych technologii stwarza wiele wyzwań, między innymi zarządzanie danymi i dokładność modelu.

Jeśli chodzi o wykorzystanie LLM, badacze stwierdzili, że zachowanie ostrożności jest kluczowe w przypadku korzystania z LLM w procesach decyzyjnych związanych z polityką zagraniczną.