O nas
Kontakt

Brak regulacji dotyczących sztucznej inteligencji nie powinien wchodzić w grę

Laura Kowalczyk

Brak regulacji dotyczących sztucznej inteligencji nie powinien wchodzić w grę

Radykalne deregulacyjne podejście do sztucznej inteligencji, na czele którego stoją obecnie Francja i Niemcy, zawiedzie unijny ekosystem sztucznej inteligencji i zamiast tego pozwoli na dominację istniejącym amerykańskim firmom zajmującym się sztuczną inteligencją, pisze dr Kris Shrishak.

W zeszłym tygodniu rządy Francji i Niemiec sprzeciwiły się regulacji systemów sztucznej inteligencji bez z góry określonych celów.

To właśnie na tych systemach AI powstają produkty takie jak ChatGPT. Ich sprzeciw pojawia się w czasie, gdy Stany Zjednoczone na mocy zarządzenia wykonawczego i Wielka Brytania podczas niedawnego szczytu dotyczącego bezpieczeństwa sztucznej inteligencji wyraziły obawy dotyczące tych samych systemów sztucznej inteligencji.

Jednak brak regulacji dotyczących systemów sztucznej inteligencji ogólnego przeznaczenia – lub, jak niektórzy nazywają je „modelami podstawowymi” – będzie szkodliwy dla unijnego ekosystemu sztucznej inteligencji.

Spowodują szkody, które spowodują brak zaufania wśród społeczeństwa, co z kolei może okazać się kosztowne dla polityków europejskich na całym kontynencie.

Należy położyć nacisk na „odpowiedzialne”

Wiele dostępnych na rynku systemów sztucznej inteligencji ogólnego przeznaczenia zostało opracowanych przez firmy z siedzibą w USA.

UE chce przyspieszyć i ułatwić rozwój własnej zaawansowanej sztucznej inteligencji, która jest oprogramowaniem typu open source i jest zbudowana zgodnie z wartościami UE. Szczególnie Francja i Niemcy nie chcą pozostać w tyle.

Chcą konkurować z firmami amerykańskimi, wspierając małe i średnie przedsiębiorstwa (MŚP). Niemcy wspierają Aleph Alpha, firmę, która niedawno zebrała ponad 500 milionów dolarów (460 milionów euro). Francja wspiera Mistral, spółkę, której przedstawiciel ds. publicznych Cédric O był do niedawna ministrem gospodarki cyfrowej.

Ważne jest wspieranie ekosystemu start-upów w rozwijaniu odpowiedzialnych systemów AI. Należy tu jednak położyć nacisk na „odpowiedzialne”.

Przewodnicząca Komisji Europejskiej Ursula von der Leyen przybywa na sesję plenarną szczytu dotyczącego bezpieczeństwa sztucznej inteligencji w Bletchley Park, listopad 2023 r.
Przewodnicząca Komisji Europejskiej Ursula von der Leyen przybywa na sesję plenarną szczytu dotyczącego bezpieczeństwa sztucznej inteligencji w Bletchley Park, listopad 2023 r.

Ważne jest wspieranie ekosystemu start-upów w rozwijaniu odpowiedzialnych systemów AI. Należy tu jednak położyć nacisk na „odpowiedzialne”.

Firma Mistral opracowała sztuczną inteligencję generującą tekst i we wrześniu udostępniła ją w Internecie. Pomimo coraz większej liczby dowodów na szkody powodowane przez generatywne systemy sztucznej inteligencji, firma Mistral wypuściła swój system sztucznej inteligencji bez żadnych zabezpieczeń, które mogłyby im zapobiec. Jak sami mówią, Mistral „nie ma żadnego mechanizmu moderowania”.

W ciągu kilku dni wykazano, że każdy może wykorzystać ten model sztucznej inteligencji do opracowania szczegółowych instrukcji dotyczących czystek etnicznych.

Należy zająć się zagrożeniami dla praw podstawowych i bezpieczeństwa

Czy UE chce wspierać taki rozwój sztucznej inteligencji? Czy inne firmy z UE chciałyby kupować systemy sztucznej inteligencji, które nie spełniają norm bezpieczeństwa?

Niezbędne są odpowiednie regulacje zapobiegające nieodpowiedzialnemu rozwojowi.

Europejski sojusz MŚP DIGITAL reprezentujący ponad 45 000 MŚP w UE wezwał do sprawiedliwego podziału odpowiedzialności w taki sposób, aby na małe przedsiębiorstwa korzystające z systemów sztucznej inteligencji ogólnego przeznaczenia nie nakładano nadmiernych obciążeń.

Firmy te nie będą mogły wprowadzać innowacji w oparciu o systemy sztucznej inteligencji ogólnego przeznaczenia, jeśli OpenAI, Google i Mistral nie ocenią, nie udokumentują i nie naprawią zagrożeń dla praw podstawowych i bezpieczeństwa, jakie stwarzają te systemy sztucznej inteligencji.

Jeżeli twórcy systemów sztucznej inteligencji ogólnego przeznaczenia nie zostaną odpowiednio uregulowani, ustawa o sztucznej inteligencji zakończy się niepowodzeniem zarówno dla MŚP, jak i inwestorów.

Mężczyzna w masce chroniącej przed rozprzestrzenianiem się nowego koronaawirusa przechodzi obok publicznego ogłoszenia o konieczności mycia rąk w Tokio, lipiec 2020 r.
Mężczyzna w masce chroniącej przed rozprzestrzenianiem się nowego koronaawirusa przechodzi obok publicznego ogłoszenia o konieczności mycia rąk w Tokio, lipiec 2020 r.

Na przykład Twój podmiot świadczący opiekę zdrowotną może wykorzystać system sztucznej inteligencji ogólnego przeznaczenia jako chatbota, który może dostarczać fałszywe informacje szkodzące zdrowiu ludzi. Chociaż na świadczeniodawcę może zostać nałożony ciężar naprawienia chatbota, nie będzie on miał dostępu do zbiorów danych i informacji wymaganych do zaradzenia szkodom.

Inwestorzy są równie ostrożni w stosunku do zagrożeń, jakie systemy sztucznej inteligencji stanowią dla społeczeństwa. Oczekują, że unijna ustawa o sztucznej inteligencji „zapewni potrzebne poręcze, które wzmocnią pozycję użytkowników i zapewnią wszystkie zainteresowane strony, że wszelkie potencjalne ryzyko związane z jej stosowaniem jest odpowiednio zarządzane”.

Jeżeli twórcy systemów sztucznej inteligencji ogólnego przeznaczenia nie zostaną odpowiednio uregulowani, ustawa o sztucznej inteligencji zakończy się niepowodzeniem zarówno dla MŚP, jak i inwestorów.

Świat patrzy

Nie oznacza to, że kraje nie powinny wspierać rozwoju modeli sztucznej inteligencji w UE. W przeszłości rząd francuski częściowo finansował BLOOM, model open source zbudowany w oparciu o wartości UE, co stanowi wyraźną przewagę nad jego amerykańskimi odpowiednikami.

UE powinna rzeczywiście wspierać start-upy, które chcą opracowywać systemy sztucznej inteligencji ogólnego przeznaczenia za pośrednictwem infrastruktury obliczeniowej i „piaskownic”, w których mogą testować swoje produkty. Jednak zezwolenie start-upom na wypuszczanie nieprzetestowanych i szkodliwych systemów sztucznej inteligencji poprzez usunięcie obowiązków regulacyjnych mogłoby mieć katastrofalne skutki dla całej Unii.

Celem uregulowania sztucznej inteligencji w UE powinno być wspieranie odpowiedzialnych innowacji wzmacniających prawa podstawowe. Rozwadnianie zobowiązań przy jednoczesnym pozornym pomaganiu kilku start-upom i poświęcaniu reszty ekosystemu MŚP w UE podważy ten cel.

Czy Francja i Niemcy połączą siły, aby zbudować dobrze prosperujący, odpowiedzialny ekosystem sztucznej inteligencji?

Radykalne podejście deregulacyjne zawiedzie unijny ekosystem sztucznej inteligencji, a zamiast tego umożliwi dominację istniejącym amerykańskim przedsiębiorstwom zajmującym się sztuczną inteligencją.

Francja i Niemcy, a także inne państwa członkowskie UE powinny podnieść poprzeczkę w zakresie stymulowania odpowiedzialnych innowacji w zakresie sztucznej inteligencji, wspierając silne zabezpieczenia regulacyjne. Świat patrzy.