Fala sztucznej inteligencji już zakłóciła wybory w Europie.
Wybory do Unii Europejskiej w 2024 r. są zagrożone ze względu na chatboty oparte na sztucznej inteligencji oraz fałszywe obrazy i filmy – stwierdziła w czwartek agencja bezpieczeństwa cybernetycznego ENISA.
Agencja stwierdziła w swoim rocznym raporcie Threat Landscape przedstawiającym zagrożenia cyberbezpieczeństwa w Europie, nastąpił gwałtowny wzrost liczby chatbotów AI, deepfakes i podobnych technologii. Stwierdzono, że rządy i sektor prywatny – a w szczególności media – powinny zachować najwyższą czujność przed przyszłorocznymi wyborami do Parlamentu Europejskiego, aby wykrywać, demaskować i zwalczać dezinformację generowaną przez sztuczną inteligencję w Internecie.
„Zaufanie do procesu wyborczego w UE będzie w decydującym stopniu zależeć od naszej zdolności do polegania na infrastrukturze cyberbezpiecznej oraz od integralności i dostępności informacji” – powiedział dyrektor wykonawczy agencji Juhan Lepassaar.
W całej Europie nasiliły się obawy związane z rozprzestrzenianiem się dezinformacji generowanej przez sztuczną inteligencję. Tego typu deepfake’i i inne treści pojawiały się w ostatnich tygodniach w kampaniach wyborczych w Polsce i na Słowacji. W tym miesiącu przywódca opozycji w Wielkiej Brytanii Keir Starmer stał się celem klipu audio rzekomo przedstawiającego jego przeklinanie pracowników, który trafił do Internetu – ale okazał się fałszywy.
Stany Zjednoczone, Parlament Europejski, Wielka Brytania, Holandia i potencjalnie Ukraina należą do krajów demokratycznych, które w ciągu najbliższych 16 miesięcy przeprowadzą wybory. Ci, którzy pracują nad utrzymaniem integralności wyborów, z ostrożnością patrzą na pojawienie się generatywnej sztucznej inteligencji jako sposobu na podsycenie i tak już mocno spolaryzowanych debat politycznych, gróźb wpływów zagranicznych i fałszywych wiadomości.
Europejska agencja ds. cyberbezpieczeństwa stwierdziła, że zidentyfikowała trzy sposoby, w jakie hakerzy wykorzystują sztuczną inteligencję do oszukiwania ludzi, w tym wykorzystywanie tej technologii do tworzenia przekonujących e-maili i wiadomości phishingowych przypominających legalne źródła, tworzenie fałszywych głosów i wykorzystywanie sztucznej inteligencji do wydobywania danych w złych celach.
Henry Adjer, badacz wizytujący na Uniwersytecie w Cambridge, specjalizujący się w deepfakes, powiedział we wcześniejszym wywiadzie, że „te aplikacje (AI) były wcześniej zbyt drogie lub trudno dostępne dla zwykłego człowieka. Teraz można je znaleźć w aplikacjach przeznaczonych dla konsumentów, na stronach internetowych, często bezpłatnie lub bardzo tanio”.
Jak podała agencja w raporcie „Krajobraz zagrożeń”, w bloku odnotowano „bezprecedensowy wzrost” cyberataków, takich jak rozproszone ataki typu „odmowa usługi” mające na celu usunięcie stron internetowych oraz ataki oprogramowania ransomware mające na celu kradzież danych organizacji i żądanie w zamian okupu.
Od lipca 2022 r. do czerwca 2023 r. ENISA odnotowała ponad 2500 incydentów cybernetycznych, z czego 220 było konkretnie wymierzonych w co najmniej dwa państwa UE. Głównymi celami ataków były administracja publiczna i służba zdrowia (19 i 8%), natomiast 6% wszystkich ataków hakerskich dotyczyło sektorów produkcyjnego, transportowego i finansowego.
ENISA odkryła również, że w 2023 r. znacznie wzrosła liczba ataków wykorzystujących inżynierię społeczną, podczas których hakerzy wykorzystują fałszywe osoby w celu zdobycia zaufania i dostępu do wrażliwych sieci i danych.
„W 2023 r. cyberprzestępcy w coraz większym stopniu atakują infrastruktury chmurowe, kierują się motywacjami geopolitycznymi i nasilili swoje operacje wymuszenia, nie tylko za pomocą oprogramowania ransomware, ale także bezpośrednio atakując użytkowników” – czytamy w raporcie.