O nas
Kontakt

Rok 2023 był rokiem, w którym sztuczna inteligencja weszła do głównego nurtu. To był także rok, w którym zaczęliśmy wpadać w panikę

Laura Kowalczyk

2023 was the year artificial intelligence (AI) went mainstream thanks to chatbots like ChatGPT.

Narzędzia generatywnej sztucznej inteligencji (AI), takie jak ChatGPT firmy OpenAI, spowodowały wzrost zainteresowania tą technologią. Ale to także podsyciło niepokój z tego powodu.

Sztuczna inteligencja (AI) weszła do głównego nurtu w 2023 r. Minęło dużo czasu, ale przed nią jeszcze długa droga, zanim technologia dopasuje się do ludzkich fantazji science fiction na temat maszyn przypominających ludzi.

Katalizatorem roku fanfar AI był ChatGPT. Chatbot dał światu wgląd w najnowsze osiągnięcia w informatyce, nawet jeśli nie wszyscy do końca rozumieli, jak to działa i co z tym zrobić.

„Nazwałbym to momentem zwrotnym” – powiedział pionierski naukowiec zajmujący się sztuczną inteligencją, Fei-Fei Li.

„Miejmy nadzieję, że rok 2023 zostanie w historii zapamiętany ze względu na głębokie zmiany technologiczne i przebudzenie społeczeństwa. Pokazuje również, jak brudna jest ta technologia”.

To był rok, w którym ludzie mogli dowiedzieć się, „co to jest, jak z tego korzystać i jaki jest wpływ – wszystkie dobre, złe i brzydkie” – powiedziała.

Panika wokół AI

Pierwsza panika związana ze sztuczną inteligencją w 2023 r. miała miejsce wkrótce po Nowym Roku, kiedy ponownie otwarto klasy, a szkoły od Seattle po Paryż zaczęły blokować ChatGPT.

Nastolatkowie już prosili chatbota – udostępnionego pod koniec 2022 r. – o pisanie esejów i rozwiązywanie testów do samodzielnego wykonania.

Duże modele językowe AI stojące za technologiami takimi jak ChatGPT działają poprzez wielokrotne odgadywanie kolejnego słowa w zdaniu po „nauce się” wzorców ogromnego zbioru dzieł napisanych przez ludzi.

Często mylą fakty. Wyniki okazały się jednak tak naturalne, że wzbudziły ciekawość w zakresie kolejnych udoskonaleń sztucznej inteligencji i jej potencjalnego wykorzystania do oszustw i oszustw.

Niepokoje nasiliły się, gdy ta nowa grupa generatywnych narzędzi sztucznej inteligencji – wypluwająca nie tylko słowa, ale nowatorskie obrazy, muzykę i syntetyczne głosy – zagroziła źródłom utrzymania każdego, kto pisze, rysuje, brzdąka lub koduje.

Podsyciło to strajki hollywoodzkich pisarzy i aktorów oraz wyzwania prawne ze strony artystów wizualnych i autorów bestsellerów.

Niektórzy z najbardziej cenionych naukowców w dziedzinie sztucznej inteligencji ostrzegali, że niekontrolowany postęp tej technologii zmierza w stronę przechytrzenia ludzi i potencjalnego zagrożenia ich istnienia, podczas gdy inni naukowcy uznali swoje obawy za przesadzone lub zwrócili uwagę na bardziej bezpośrednie zagrożenia.

Wiosną fałszywe fałszywe informacje generowane przez sztuczną inteligencję – niektóre bardziej przekonujące niż inne – wkroczyły do ​​amerykańskich kampanii wyborczych, a jedna z nich fałszywie pokazała Donalda Trumpa obejmującego byłego głównego eksperta w dziedzinie chorób zakaźnych.

Technologia coraz bardziej utrudniała rozróżnienie pomiędzy prawdziwymi i sfabrykowanymi materiałami wojennymi na Ukrainie i w Gazie.

Pod koniec roku kryzysy związane ze sztuczną inteligencją przeniosły się na twórcę ChatGPT, startup OpenAI z siedzibą w San Francisco, niemal całkowicie zniszczony przez korporacyjne zamieszanie wokół charyzmatycznego dyrektora generalnego, oraz na rządową salę posiedzeń w Belgii, gdzie wyczerpani przywódcy polityczni z całego świata po dniach intensywnych rozmów Unia Europejska zawarła porozumienie w sprawie pierwszych na świecie głównych zabezpieczeń prawnych dotyczących sztucznej inteligencji.

Pełne wejście w życie nowej unijnej ustawy o sztucznej inteligencji zajmie kilka lat, a innym organom prawodawczym – w tym Kongresowi USA – wciąż daleko do uchwalenia własnej ustawy.

Za dużo szumu?

Nie ma wątpliwości, że komercyjne produkty AI zaprezentowane w 2023 roku obejmowały osiągnięcia technologiczne niemożliwe na wcześniejszych etapach badań nad sztuczną inteligencją, których początki sięgają połowy XX wieku.

Generatywna sztuczna inteligencja znajduje się u szczytu zawyżonych oczekiwań. Dostawcy i producenci generatywnej sztucznej inteligencji wyrażają ogromne twierdzenia dotyczące jej możliwości i zdolności do zapewniania tych możliwości.

Dave’a Micko

Analityk Gartnera

Jednak zdaniem firmy badawczej Gartner, która od lat 90. XX wieku śledzi, jak to nazywa „cykl szumu”, najnowszy trend dotyczący generatywnej sztucznej inteligencji osiągnął szczyt. Wyobraź sobie drewnianą kolejkę górską wjeżdżającą na najwyższe wzniesienie, która wkrótce zjedzie w coś, co Gartner określił jako „rynnę rozczarowania”, zanim powróci do rzeczywistości.

„Generatywna sztuczna inteligencja znajduje się u szczytu zawyżonych oczekiwań” – powiedział analityk firmy Gartner Dave Micko. „Dostawcy i producenci generatywnej sztucznej inteligencji wyrażają ogromne twierdzenia dotyczące jej możliwości i zdolności do zapewniania tych możliwości”.

W tym miesiącu firma Google spotkała się z krytyką za zmontowanie demonstracji wideo swojego najpotężniejszego modelu sztucznej inteligencji, zwanego Gemini, w sposób, który sprawił, że wyglądał bardziej imponująco – i przypominał człowieka.

Micko powiedział, że czołowi twórcy sztucznej inteligencji forsują określone sposoby stosowania najnowszych technologii, z których większość odpowiada ich obecnej linii produktów – czy to wyszukiwarkom, czy oprogramowaniu zwiększającym produktywność w miejscu pracy. Nie oznacza to jednak, że świat będzie z niego korzystał.

„Chociaż Google, Microsoft, Amazon i Apple bardzo chciałyby, abyśmy przyjęli sposób, w jaki myślą o swojej technologii i o tym, jak ją dostarczają, myślę, że adopcja w rzeczywistości odbywa się oddolnie” – powiedział.

Czy tym razem jest inaczej?

Łatwo zapomnieć, że nie jest to pierwsza fala komercjalizacji sztucznej inteligencji. Techniki widzenia komputerowego opracowane przez Li i innych naukowców pomogły w sortowaniu ogromnej bazy danych zdjęć w celu rozpoznawania obiektów i poszczególnych twarzy oraz pomagania w kierowaniu samochodami autonomicznymi. Postępy w zakresie rozpoznawania mowy sprawiły, że asystenci głosowi, tacy jak Siri i Alexa, stali się stałym elementem życia wielu ludzi.

„Kiedy wprowadziliśmy Siri w 2011 roku, była to wówczas najszybciej rozwijająca się aplikacja konsumencka i jedyne główne zastosowanie sztucznej inteligencji, z jakim ludzie kiedykolwiek mieli do czynienia” – powiedział Tom Gruber, współzałożyciel Siri Inc., którą Apple kupił i stał się integralną funkcją iPhone’a.

Gruber uważa jednak, że to, co dzieje się obecnie, to „największa fala w historii” sztucznej inteligencji, wyzwalająca nowe możliwości, a także niebezpieczeństwa.

„Jesteśmy zaskoczeni, że mogliśmy przypadkowo odkryć tę zdumiewającą zdolność języka, szkoląc maszynę do gry w pasjansa w całym Internecie” – powiedział Gruber. „To trochę niesamowite”.

Zagrożenia mogą pojawić się szybko w 2024 r., gdy główne wybory krajowe w USA, Indiach i innych krajach mogą zostać zalane deepfakemi generowanymi przez sztuczną inteligencję.

W dłuższej perspektywie szybko ulepszający się język, percepcja wzrokowa i możliwości planowania krok po kroku, jakie zapewnia technologia AI, mogą ulepszyć wizję cyfrowego asystenta – ale tylko pod warunkiem uzyskania dostępu do „wewnętrznej pętli naszego cyfrowego strumienia życia” – powiedział Gruber.

„Mogą zarządzać twoją uwagą, na przykład: «powinieneś obejrzeć ten film. Powinieneś przeczytać tę książkę. Powinieneś reagować na komunikaty tej osoby»” – stwierdził Gruber.

„Tak właśnie robi prawdziwy asystent wykonawczy. Moglibyśmy to mieć, ale wiązałoby się to z naprawdę dużym ryzykiem dotyczącym danych osobowych i prywatności”.