Branża sztucznej inteligencji nie powinna napędzać zmian regulacyjnych, ostrzegł dyrektor generalny OpenAI.
Dyrektor generalny OpenAI, twórcy ChatGPT, powiedział we wtorek, że niebezpieczeństwa, które nie pozwalają mu zasnąć w nocy w związku ze sztuczną inteligencją (AI), to „bardzo subtelne rozbieżności społeczne”, które mogą spowodować, że systemy sieją spustoszenie.
Sam Altman, przemawiając podczas Szczytu Rządu Światowego w Dubaju za pośrednictwem rozmowy wideo, ponownie wezwał do utworzenia organu takiego jak Międzynarodowa Agencja Energii Atomowej, który miałby nadzorować sztuczną inteligencję, która prawdopodobnie rozwija się szybciej, niż świat się tego spodziewa.
„Są tam pewne rzeczy, które łatwo sobie wyobrazić, gdzie naprawdę dzieje się źle. Nie interesują mnie też zabójcze roboty idące ulicą w kierunku, w którym dzieje się coś złego” – powiedział Altman.
„O wiele bardziej interesują mnie bardzo subtelne rozbieżności społeczne, w których po prostu mamy te systemy w społeczeństwie i bez szczególnie złych intencji wszystko idzie po prostu źle”.
Altman podkreślił jednak, że branża sztucznej inteligencji, podobnie jak OpenAI, nie powinna sprawować steru, jeśli chodzi o tworzenie przepisów regulujących tę branżę.
„Nadal jesteśmy na etapie wielu dyskusji. Więc wiesz, wszyscy na świecie mają konferencję. Każdy ma pomysł, dokument programowy i to jest w porządku” – powiedział Altman. „Myślę, że wciąż znajdujemy się w czasie, gdy debata jest potrzebna i zdrowa, ale myślę, że w ciągu najbliższych kilku lat będziemy musieli przejść dalej w kierunku planu działania, który będzie miał realne poparcie na całym świecie”.
OpenAI, startup zajmujący się sztuczną inteligencją z siedzibą w San Francisco, jest jednym z liderów w tej dziedzinie. Microsoft zainwestował w OpenAI około 1 miliarda dolarów (928,8 miliona euro).
Associated Press podpisała umowę z OpenAI na dostęp do jej archiwum wiadomości. Tymczasem The New York Times pozwał OpenAI i Microsoft za wykorzystanie jego historii bez pozwolenia na szkolenie chatbotów OpenAI.
Sukces OpenAI sprawił, że Altman stał się publiczną twarzą szybkiej komercjalizacji generatywnej sztucznej inteligencji oraz obaw związanych z tym, co może wyniknąć z nowej technologii.
Zjednoczone Emiraty Arabskie, autokratyczna federacja siedmiu dziedzicznie rządzonych szejków, wykazują oznaki takiego ryzyka. Mowa pozostaje ściśle kontrolowana. Ograniczenia te wpływają na przepływ dokładnych informacji — tych samych szczegółów, na których programy AI, takie jak ChatGPT, korzystają z systemów uczenia maszynowego, aby dostarczać odpowiedzi użytkownikom.
Emirates mają także firmę G42 z Abu Zabi, nadzorowaną przez potężnego doradcę ds. bezpieczeństwa narodowego kraju. G42 ma, zdaniem ekspertów, wiodący na świecie arabskojęzyczny model sztucznej inteligencji. Firma spotkała się z zarzutami o szpiegostwo w związku z powiązaniami z aplikacją na telefon komórkowy zidentyfikowaną jako oprogramowanie szpiegujące. Spotkała się także z twierdzeniami, że mogła w tajemnicy pozyskać materiał genetyczny od Amerykanów dla chińskiego rządu.
G42 oświadczyło, że zerwie powiązania z chińskimi dostawcami ze względu na amerykańskie koncerny. Jednak dyskusja z Altmanem, moderowana przez Ministra Stanu ds. Sztucznej Inteligencji Zjednoczonych Emiratów Arabskich Omara al-Olamę, nie poruszyła żadnego z lokalnych problemów.
Ze swojej strony Altman stwierdził, że pocieszył go fakt, że szkoły, w których nauczyciele obawiali się, że uczniowie będą używać sztucznej inteligencji do pisania prac dyplomowych, teraz uznają tę technologię za kluczową dla przyszłości. Dodał jednak, że sztuczna inteligencja jest w powijakach.
„Myślę, że powodem jest to, że obecna technologia, którą dysponujemy, przypomina… pierwszy telefon komórkowy z czarno-białym ekranem” – powiedział Altman.
„Więc daj nam trochę czasu. Powiem jednak, że myślę, że za kilka lat będzie znacznie lepiej niż obecnie. A za dekadę powinno to być całkiem niezwykłe”.