Potencjalne zagrożenia związane z generatywną sztuczną inteligencją budzą obawy społeczeństwa, polityków i badaczy sztucznej inteligencji.
OpenAI rozszerzyło swój wewnętrzny proces bezpieczeństwa, aby stawić czoła zagrożeniu ze strony szkodliwej sztucznej inteligencji (AI), gdy rządy chcą ograniczyć tę technologię.
Start-up, który może pochwalić się niezwykle udanym chatbotem ChatGPT i jest wspierany przez Microsoft, oświadczył, że utworzy dedykowany zespół do nadzorowania prac technicznych i strukturę operacyjną, co umożliwi także zarządowi odwracanie decyzji dotyczących bezpieczeństwa.
„Tworzymy wielofunkcyjną grupę doradczą ds. bezpieczeństwa, która ma przeglądać wszystkie raporty i przesyłać je jednocześnie kierownictwu i radzie dyrektorów. Chociaż kierownictwo podejmuje decyzje, rada dyrektorów ma prawo do zmiany decyzji” – stwierdziła firma w poniedziałek na swojej stronie internetowej.
Firma zaktualizowała swoje „ramy gotowości”, twierdząc, że zainwestuje również w staranne oceny zdolności i prognozowanie, aby lepiej wykrywać pojawiające się zagrożenia. Stwierdzono również, że będzie stale aktualizować „karty wyników” swoich modeli.
„Będziemy oceniać wszystkie nasze modele pionierskie, w tym przy każdym dwukrotnym efektywnym wzroście mocy obliczeniowej podczas przebiegów szkoleniowych. Wypchniemy modele do granic ich możliwości” – powiedział OpenAI.
Potencjalne zagrożenia związane z tą technologią budzą niepokój społeczeństwa, polityków i badaczy sztucznej inteligencji, ponieważ generatywna sztuczna inteligencja może szerzyć dezinformację.
OpenAI, najcenniejszy start-up w Stanach Zjednoczonych, wpadł w zamieszanie w listopadzie, kiedy jego współzałożyciel i dyrektor generalny Sam Altman został usunięty z zarządu, a większość pracowników firmy zagroziła odejściem, jeśli nie zostanie przywrócony na stanowisko.
Kilka dni przed wyrzuceniem Altmana z zarządu kilku pracowników naukowych napisało list do zarządu, ostrzegając przed potężnym odkryciem sztucznej inteligencji, które może zagrozić ludzkości, podał w listopadzie Reuters, powołując się na dwie osoby zaznajomione z tą sprawą.
Rządy na całym świecie zaczynają regulować tę technologię, a Unia Europejska jako pierwsza zgodziła się na zbiór przepisów dotyczących sztucznej inteligencji.