O nas
Kontakt

Wybory europejskie zagrożone ze strony sztucznej inteligencji, twierdzi unijna agencja cybernetyczna

Laura Kowalczyk

Wybory europejskie zagrożone ze strony sztucznej inteligencji, twierdzi unijna agencja cybernetyczna

Fala sztucznej inteligencji już zakłóciła wybory w Europie.

Wybory do Unii Europejskiej w 2024 r. są zagrożone ze względu na chatboty oparte na sztucznej inteligencji oraz fałszywe obrazy i filmy – stwierdziła w czwartek agencja bezpieczeństwa cybernetycznego ENISA.

Agencja stwierdziła w swoim rocznym raporcie Threat Landscape przedstawiającym zagrożenia cyberbezpieczeństwa w Europie, nastąpił gwałtowny wzrost liczby chatbotów AI, deepfakes i podobnych technologii. Stwierdzono, że rządy i sektor prywatny – a w szczególności media – powinny zachować najwyższą czujność przed przyszłorocznymi wyborami do Parlamentu Europejskiego, aby wykrywać, demaskować i zwalczać dezinformację generowaną przez sztuczną inteligencję w Internecie.

„Zaufanie do procesu wyborczego w UE będzie w decydującym stopniu zależeć od naszej zdolności do polegania na infrastrukturze cyberbezpiecznej oraz od integralności i dostępności informacji” – powiedział dyrektor wykonawczy agencji Juhan Lepassaar.

W całej Europie nasiliły się obawy związane z rozprzestrzenianiem się dezinformacji generowanej przez sztuczną inteligencję. Tego typu deepfake’i i inne treści pojawiały się w ostatnich tygodniach w kampaniach wyborczych w Polsce i na Słowacji. W tym miesiącu przywódca opozycji w Wielkiej Brytanii Keir Starmer stał się celem klipu audio rzekomo przedstawiającego jego przeklinanie pracowników, który trafił do Internetu – ale okazał się fałszywy.

Stany Zjednoczone, Parlament Europejski, Wielka Brytania, Holandia i potencjalnie Ukraina należą do krajów demokratycznych, które w ciągu najbliższych 16 miesięcy przeprowadzą wybory. Ci, którzy pracują nad utrzymaniem integralności wyborów, z ostrożnością patrzą na pojawienie się generatywnej sztucznej inteligencji jako sposobu na podsycenie i tak już mocno spolaryzowanych debat politycznych, gróźb wpływów zagranicznych i fałszywych wiadomości.

Europejska agencja ds. cyberbezpieczeństwa stwierdziła, że ​​zidentyfikowała trzy sposoby, w jakie hakerzy wykorzystują sztuczną inteligencję do oszukiwania ludzi, w tym wykorzystywanie tej technologii do tworzenia przekonujących e-maili i wiadomości phishingowych przypominających legalne źródła, tworzenie fałszywych głosów i wykorzystywanie sztucznej inteligencji do wydobywania danych w złych celach.

Henry Adjer, badacz wizytujący na Uniwersytecie w Cambridge, specjalizujący się w deepfakes, powiedział we wcześniejszym wywiadzie, że „te aplikacje (AI) były wcześniej zbyt drogie lub trudno dostępne dla zwykłego człowieka. Teraz można je znaleźć w aplikacjach przeznaczonych dla konsumentów, na stronach internetowych, często bezpłatnie lub bardzo tanio”.

Jak podała agencja w raporcie „Krajobraz zagrożeń”, w bloku odnotowano „bezprecedensowy wzrost” cyberataków, takich jak rozproszone ataki typu „odmowa usługi” mające na celu usunięcie stron internetowych oraz ataki oprogramowania ransomware mające na celu kradzież danych organizacji i żądanie w zamian okupu.

Od lipca 2022 r. do czerwca 2023 r. ENISA odnotowała ponad 2500 incydentów cybernetycznych, z czego 220 było konkretnie wymierzonych w co najmniej dwa państwa UE. Głównymi celami ataków były administracja publiczna i służba zdrowia (19 i 8%), natomiast 6% wszystkich ataków hakerskich dotyczyło sektorów produkcyjnego, transportowego i finansowego.

ENISA odkryła również, że w 2023 r. znacznie wzrosła liczba ataków wykorzystujących inżynierię społeczną, podczas których hakerzy wykorzystują fałszywe osoby w celu zdobycia zaufania i dostępu do wrażliwych sieci i danych.

„W 2023 r. cyberprzestępcy w coraz większym stopniu atakują infrastruktury chmurowe, kierują się motywacjami geopolitycznymi i nasilili swoje operacje wymuszenia, nie tylko za pomocą oprogramowania ransomware, ale także bezpośrednio atakując użytkowników” – czytamy w raporcie.