O nas
Kontakt

Microsoft twierdzi, że amerykańscy rywale zaczynają wykorzystywać generatywną sztuczną inteligencję w ofensywnych operacjach cybernetycznych

Laura Kowalczyk

Microsoft warns about countries using AI in offensive cyber operations.

Krytycy publicznego wydania ChatGPT w listopadzie 2022 r. i kolejnych wydań konkurencji twierdzą, że było to nieodpowiedzialnie pochopne, biorąc pod uwagę, że bezpieczeństwo było w dużej mierze kwestią drugorzędną w ich rozwoju.

Microsoft powiedział w środę, że przeciwnicy USA, głównie Iran i Korea Północna oraz w mniejszym stopniu Rosja i Chiny, zaczynają wykorzystywać generatywną sztuczną inteligencję (AI) do przeprowadzania lub organizowania ofensywnych operacji cybernetycznych.

Gigant technologiczny oświadczył, że we współpracy z partnerem biznesowym OpenAI wykrył i zakłócił zagrożenia, które wykorzystywały opracowaną przez niego technologię sztucznej inteligencji lub próbowały ją wykorzystać.

W poście na blogu firma z Redmond w stanie Waszyngton stwierdziła, że ​​techniki te są na „wczesnym etapie” i nie są „szczególnie nowatorskie ani wyjątkowe”, ale ważne było ich publiczne ujawnienie, ponieważ amerykańscy rywale wykorzystują modele wielojęzyczne do poszerzania swoich możliwości naruszać sieci i prowadzić operacje wywierania wpływu.

Firmy zajmujące się cyberbezpieczeństwem od dawna wykorzystują uczenie maszynowe w obronie, głównie do wykrywania nietypowych zachowań w sieciach. Ale używają go również przestępcy i ofensywni hakerzy, a wprowadzenie modeli wielojęzycznych na czele z ChatGPT OpenAI usprawniło tę grę w kotka i myszkę.

Microsoft zainwestował miliardy dolarów w OpenAI, a środowe oświadczenie zbiegło się z publikacją raportu, w którym stwierdzono, że oczekuje się, że generatywna sztuczna inteligencja ulepszy złośliwą inżynierię społeczną, prowadząc do bardziej wyrafinowanych deepfakes i klonowania głosu, co stanowi zagrożenie dla demokracji w roku, w którym ponad 50 kraje przeprowadzą wybory, nasilając dezinformację i już występującą,

Oto kilka przykładów dostarczonych przez firmę Microsoft. W każdym przypadku stwierdzono, że wszystkie konta i zasoby generatywnej sztucznej inteligencji wymienionych grup zostały wyłączone:

  • Północnokoreańska grupa cyberszpiegowska znana jako Kimsuky wykorzystała te modele do badania zagranicznych ośrodków doradczo-doradczych badających kraj i do generowania treści, które mogą zostać wykorzystane w kampaniach hakerskich typu spear-phishing.
  • Irańska Gwardia Rewolucyjna korzysta z modeli wielkojęzycznych, aby pomóc w inżynierii społecznej, rozwiązywaniu problemów z błędami oprogramowania, a nawet w badaniu, w jaki sposób intruzi mogą uniknąć wykrycia w zaatakowanej sieci. Obejmuje to generowanie e-maili phishingowych, „w tym jednego udającego, że pochodzi od międzynarodowej agencji rozwoju, a drugiego próbującego zwabić wybitne feministki na stworzoną przez atakujących witrynę internetową poświęconą feminizmowi”. Sztuczna inteligencja pomaga przyspieszyć i zwiększyć produkcję wiadomości e-mail.
  • Rosyjska jednostka wywiadu wojskowego GRU, znana jako Fancy Bear, wykorzystała te modele do badania technologii satelitarnych i radarowych, które mogą mieć związek z wojną na Ukrainie.
  • Chińska grupa cyberszpiegowska znana jako Aquatic Panda – której celem jest szeroki zakres branż, szkolnictwo wyższe i rządy od Francji po Malezję – wchodzi w interakcję z modelami „w sposób sugerujący ograniczone badanie tego, w jaki sposób LLM mogą ulepszyć swoje operacje techniczne”.
  • Chińska grupa Maverick Panda, która od ponad dziesięciu lat skupia się na amerykańskich wykonawcach sektora obronnego, między innymi w innych sektorach, wchodziła w interakcję z modelami wielkojęzycznymi, co sugerowało, że ocenia ich skuteczność jako źródła informacji „na potencjalnie drażliwe tematy, ważne osobistości, regionalne geopolityka, wpływy USA i sprawy wewnętrzne”.

„Puszka Pandory została otwarta”

W opublikowanym w środę osobnym blogu OpenAI stwierdziło, że jego obecny chatbot model GPT-4 oferuje „jedynie ograniczone, przyrostowe możliwości wykonywania złośliwych zadań związanych z cyberbezpieczeństwem, wykraczające poza to, co jest już możliwe do osiągnięcia za pomocą publicznie dostępnych narzędzi niezawierających sztucznej inteligencji”.

Badacze zajmujący się cyberbezpieczeństwem oczekują, że to się zmieni.

W kwietniu ubiegłego roku dyrektor amerykańskiej Agencji ds. Bezpieczeństwa Cyberbezpieczeństwa i Infrastruktury Jen Easterly powiedziała Kongresowi, że „istnieją dwa zagrożenia i wyzwania definiujące epokę. Jednym z nich są Chiny, a drugim sztuczna inteligencja.

Easterly powiedział wówczas, że Stany Zjednoczone muszą zadbać o to, aby sztuczna inteligencja była budowana z myślą o bezpieczeństwie.

Krytycy publicznego wydania ChatGPT w listopadzie 2022 r. – a także kolejnych wydań konkurentów, w tym Google i Meta – twierdzą, że było to nieodpowiedzialnie pochopne, biorąc pod uwagę, że bezpieczeństwo było w dużej mierze kwestią drugorzędną w ich rozwoju.

„Oczywiście źli aktorzy korzystają z modeli wielkojęzycznych — taka decyzja została podjęta podczas otwierania puszki Pandory” – powiedział Amit Yoran, dyrektor generalny firmy Tenable zajmującej się cyberbezpieczeństwem.

Niektórzy specjaliści ds. cyberbezpieczeństwa narzekają na tworzenie i sprzedawanie przez firmę Microsoft narzędzi do usuwania luk w zabezpieczeniach modeli wielojęzycznych, podczas gdy firma mogłaby w bardziej odpowiedzialny sposób skupić się na zwiększaniu ich bezpieczeństwa.

„Dlaczego nie stworzyć bezpieczniejszych, czarnych skrzynek podstawowych modeli LLM, zamiast sprzedawać narzędzia obronne pozwalające rozwiązać problem, który pomagają stworzyć?” – zapytał Gary McGraw, weteran bezpieczeństwa komputerowego i współzałożyciel Berryville Institute of Machine Learning.

Profesor Uniwersytetu Nowojorskiego i były dyrektor ds. bezpieczeństwa AT&T, Edward Amoroso, powiedział, że chociaż wykorzystanie sztucznej inteligencji i modeli wielojęzycznych może nie stanowić od razu oczywistego zagrożenia, „ostatecznie staną się one jedną z najpotężniejszych broni w przestępstwach popełnianych przez wojsko każdego państwa narodowego”.