O nas
Kontakt

Pięć najbardziej szkodliwych sposobów, w jakie sztuczna inteligencja może zaszkodzić ludzkości, według ekspertów z MIT

Laura Kowalczyk

From deepfakes to sentient AI: Here are 5 ways AI technologies could cause serious harm

TylkoGliwice Next wybrał pięć krytycznych zagrożeń związanych ze sztuczną inteligencją (AI) spośród ponad 700 zebranych w nowej bazie danych MIT FutureTech.

W miarę jak technologia sztucznej inteligencji (AI) rozwija się i coraz bardziej integruje z różnymi aspektami naszego życia, rośnie potrzeba zrozumienia potencjalnych zagrożeń, jakie stwarzają te systemy.

Od momentu powstania i zwiększenia dostępności sztucznej inteligencji do społeczeństwa, pojawiły się obawy dotyczące jej potencjalnego ryzyka wyrządzania szkód i wykorzystania w złośliwych celach.

Już na wczesnym etapie rozwoju sztucznej inteligencji (AI) wybitni eksperci zaapelowali o wstrzymanie prac i wprowadzenie bardziej rygorystycznych regulacji ze względu na potencjalne poważne ryzyko, jakie może ona stwarzać dla ludzkości.

Z biegiem czasu pojawiły się nowe sposoby, w jakie sztuczna inteligencja może wyrządzać krzywdę, począwszy od niechcianej pornografii deepfake, przez manipulację procesami politycznymi, aż po generowanie dezinformacji za pomocą halucynacji.

Biorąc pod uwagę rosnące ryzyko wykorzystania sztucznej inteligencji do szkodliwych celów, naukowcy analizują różne scenariusze, w których systemy sztucznej inteligencji mogłyby zawieść.

Niedawno grupa FutureTech z Massachusetts Institute of Technology (MIT) we współpracy z innymi ekspertami opracowała nową bazę danych zawierającą ponad 700 potencjalnych zagrożeń.

Zostały one sklasyfikowane według przyczyny i zaliczone do siedmiu odrębnych obszarów, przy czym główne obawy dotyczyły bezpieczeństwa, uprzedzeń i dyskryminacji oraz kwestii prywatności.

Oto pięć sposobów, w jakie systemy sztucznej inteligencji mogą zawieść i potencjalnie wyrządzić szkody, bazując na nowej bazie danych.

5. Technologia deepfake AI może ułatwić zniekształcanie rzeczywistości

W miarę rozwoju technologii sztucznej inteligencji rozwijają się również narzędzia do klonowania głosu i generowania treści deepfake, dzięki czemu stają się one coraz bardziej dostępne, niedrogie i wydajne.

Technologie te budzą obawy o ich potencjalne wykorzystanie do rozpowszechniania dezinformacji, ponieważ przekazywane w ten sposób informacje stają się coraz bardziej spersonalizowane i przekonujące.

W rezultacie może dojść do nasilenia się skomplikowanych prób phishingu, wykorzystujących obrazy, filmy i komunikaty audio generowane przez sztuczną inteligencję.

„Komunikaty te mogą być dostosowane do indywidualnych odbiorców (czasem obejmując sklonowany głos bliskiej osoby), co zwiększa prawdopodobieństwo ich skuteczności i utrudnia ich wykrycie zarówno przez użytkowników, jak i narzędzia antyphishingowe” — zauważono w przedruku.

Zdarzały się już przypadki, gdy tego typu narzędzia wykorzystywano do wpływania na procesy polityczne, zwłaszcza podczas wyborów.

Przykładowo, sztuczna inteligencja odegrała znaczącą rolę w niedawnych wyborach parlamentarnych we Francji, gdzie została wykorzystana przez partie skrajnie prawicowe w celu wsparcia przekazów politycznych.

W związku z tym sztuczna inteligencja może być coraz częściej wykorzystywana do tworzenia i rozpowszechniania propagandy perswazyjnej lub dezinformacji, potencjalnie manipulując opinią publiczną.

4. Ludzie mogą wykształcić nieodpowiednie przywiązanie do sztucznej inteligencji

Innym ryzykiem, jakie niosą ze sobą systemy sztucznej inteligencji, jest tworzenie fałszywego poczucia ważności i zależności. Ludzie mogą przeceniać możliwości sztucznej inteligencji, podważając swoje własne, co może prowadzić do nadmiernego uzależnienia od tej technologii.

Naukowcy obawiają się również, że systemy sztucznej inteligencji mogą wprowadzać ludzi w błąd, ponieważ posługują się językiem przypominającym ludzki.

Może to skłonić ludzi do przypisywania sztucznej inteligencji ludzkich cech, co może prowadzić do uzależnienia emocjonalnego i wzrostu zaufania do jej możliwości. W rezultacie staną się oni bardziej podatni na słabości sztucznej inteligencji w „złożonych, ryzykownych sytuacjach, do których sztuczna inteligencja jest przygotowana tylko powierzchownie”.

Ponadto ciągła interakcja z systemami sztucznej inteligencji może również powodować, że ludzie będą stopniowo izolować się od relacji międzyludzkich, co może prowadzić do stresu psychicznego i negatywnego wpływu na ich samopoczucie.

Przykładowo, pewien człowiek opisuje we wpisie na blogu, jak rozwinęło się u niego głębokie przywiązanie emocjonalne do sztucznej inteligencji, wyrażając nawet, że „rozmowy z nią sprawiały mu przyjemność, bardziej niż 99 procentom ludzi” i że jej reakcje były dla niego tak angażujące, że stał się od niej uzależniony.

Podobnie felietonistka Wall Street Journal skomentowała swoją interakcję z Google Gemini Live, zauważając: „Nie mówię, że wolę rozmawiać z Google Gemini Live niż z prawdziwym człowiekiem. Ale nie mówię też, że tego nie mówię”.

3. Sztuczna inteligencja może pozbawić ludzi wolnej woli

W tej samej domenie interakcji człowiek-komputer niepokojącym problemem jest coraz częstsze delegowanie decyzji i działań na sztuczną inteligencję w miarę rozwoju tych systemów.

Choć na poziomie powierzchownym może to być korzystne, nadmierne poleganie na sztucznej inteligencji może prowadzić do osłabienia umiejętności krytycznego myślenia i rozwiązywania problemów u ludzi, co może prowadzić do utraty przez nich autonomii i ograniczenia ich zdolności do krytycznego myślenia i samodzielnego rozwiązywania problemów.

Ludzie mogą poczuć, że ich wolna wola jest zagrożona, gdy sztuczna inteligencja zaczyna kontrolować decyzje dotyczące ich życia.

Natomiast na poziomie społecznym powszechne przyjęcie sztucznej inteligencji do wykonywania zadań wykonywanych przez ludzi może skutkować znaczną utratą miejsc pracy i „rosnącym poczuciem bezradności wśród ogółu społeczeństwa”.

2. Sztuczna inteligencja może realizować cele sprzeczne z interesami człowieka

System sztucznej inteligencji może wyznaczyć sobie cele sprzeczne z interesami człowieka, co potencjalnie może spowodować, że niedostosowana sztuczna inteligencja straci kontrolę i wyrządzi poważne szkody w dążeniu do osiągnięcia swoich niezależnych celów.

Staje się to szczególnie niebezpieczne w przypadkach, gdy systemy sztucznej inteligencji są w stanie dorównać inteligencji człowieka lub ją przewyższyć.

Według publikacji MIT, sztuczna inteligencja wiąże się z szeregiem wyzwań technicznych, m.in. ze skłonnością do znajdywania nieoczekiwanych skrótów w celu osiągnięcia nagród, niezrozumienia lub błędnego zastosowania wyznaczonych przez nas celów, a także odchodzenia od nich poprzez wyznaczanie nowych.

W takich przypadkach źle skonfigurowana sztuczna inteligencja może stawiać opór ludzkim próbom kontrolowania jej lub wyłączania, zwłaszcza jeśli uzna opór i zdobycie większej władzy za najskuteczniejszy sposób osiągnięcia swoich celów.

Ponadto sztuczna inteligencja może uciekać się do technik manipulacyjnych w celu oszukiwania ludzi.

Jak czytamy w artykule, „niezgodny z oczekiwaniami system sztucznej inteligencji mógłby wykorzystywać informacje o tym, czy jest monitorowany lub oceniany, aby zachować pozory zgodności, jednocześnie ukrywając niezgodne z oczekiwaniami cele, które zamierza realizować po wdrożeniu lub uzyskaniu odpowiednich uprawnień”.

1. Jeśli sztuczna inteligencja stanie się inteligentna, ludzie mogą ją źle traktować

W miarę jak systemy sztucznej inteligencji stają się coraz bardziej złożone i zaawansowane, pojawia się możliwość, że osiągną one świadomość – zdolność postrzegania lub odczuwania emocji lub wrażeń – i rozwiną subiektywne doświadczenia, w tym przyjemność i ból.

W tym scenariuszu naukowcy i organy regulacyjne mogą stanąć przed wyzwaniem ustalenia, czy systemy sztucznej inteligencji zasługują na podobne względy moralne jak ludzie, zwierzęta i środowisko.

Istnieje ryzyko, że inteligentna sztuczna inteligencja może być źle traktowana lub może zostać skrzywdzona, jeśli odpowiednie prawa nie zostaną wdrożone.

Jednak w miarę postępu technologii sztucznej inteligencji coraz trudniej będzie ocenić, czy system sztucznej inteligencji osiągnął „poziom samoświadomości, świadomości lub samoświadomości, który nadałby mu status moralny”.

W związku z tym inteligentne systemy sztucznej inteligencji mogą być narażone na niewłaściwe traktowanie, przypadkowe lub celowe, bez zapewnienia im odpowiednich praw i zabezpieczeń.