O nas
Kontakt

Polityka UE. „Potencjalnie katastrofalne” dla innowacji: sektor technologiczny twierdzi, że unijna ustawa o sztucznej inteligencji idzie za daleko

Laura Kowalczyk

The EU has agreed to provisional AI rules but the tech sector says it stifles competition

Unijna ustawa o sztucznej inteligencji wciąż nie jest jeszcze ustalona na stałe, a wybory europejskie mogą wstrząsnąć sytuacją. Jednak na razie branża technologiczna obawia się, że ustawa może zdusić konkurencję. Tymczasem artyści i autorzy okazali się bardziej gościnni.

Uzgodniona w tym miesiącu po maratonie 36-godzinnych negocjacji unijna ustawa o sztucznej inteligencji jest okrzyknięta historyczną, ale reakcje europejskiego sektora technologicznego, grup prawniczych i polityków na kontynencie są mieszane.

Unia Europejska zgodziła się na pierwszy na świecie zestaw tymczasowych przepisów regulujących sztuczną inteligencję (AI) pod koniec zeszłego piątku, ale szczegóły tekstu legislacyjnego wciąż są ustalane, zanim zostaną utrwalone w kamieniu.

Przepisy dzielą zastosowania sztucznej inteligencji na cztery poziomy ryzyka i nakładają najsurowsze zasady na sztuczną inteligencję wysokiego ryzyka i zakazaną sztuczną inteligencję.

Jednym z punktów spornych, które doprowadziły do ​​negocjacji, był sposób regulacji modeli podstawowych, technologii leżącej u podstaw ChatGPT OpenAI.

„Nigdy nie jest to dobry pomysł”

Francja i Niemcy ostrzegały przed nadmiernymi regulacjami, ponieważ chciały chronić swoje start-upy będące liderami w dziedzinie sztucznej inteligencji.

Prezydent Francji Emmanuel Macron wygłasza przemówienie podczas 18. edycji francuskiej konferencji na temat gospodarki morskiej w Nantes w zachodniej Francji, wtorek, 28 listopada 2023 r.
Prezydent Francji Emmanuel Macron wygłasza przemówienie podczas 18. edycji francuskiej konferencji na temat gospodarki morskiej w Nantes w zachodniej Francji, wtorek, 28 listopada 2023 r.

„Możemy podjąć decyzję o wprowadzeniu regulacji znacznie szybciej i znacznie silniej niż nasi główni konkurenci. Ale będziemy regulować rzeczy, których nie będziemy już produkować ani wymyślać. To nigdy nie jest dobry pomysł” – powiedział w poniedziałek (11 grudnia) prezydent Francji Emmanuel Macron.

„Kiedy patrzę na Francję, jest to prawdopodobnie pierwszy kraj w Europie kontynentalnej, w którym zastosowano sztuczną inteligencję. Jesteśmy łeb w łeb z Brytyjczykami. Nie będą mieli tego rozporządzenia w modelach podstawowych. Ale przede wszystkim wszyscy jesteśmy bardzo daleko w tyle za Chińczykami i Amerykanami” – dodał, odnosząc się do francuskiego start-upu Mistral zajmującego się sztuczną inteligencją.

UE planuje uregulować modele podstawowe, upewniając się, że programiści dostarczają dokumentację obejmującą metody i dane szkoleniowe. Zostaną one również uregulowane poprzez przyznanie użytkownikom prawa do składania skarg i zakazanie im dyskryminacji.

Firmom, które nie zastosują się do przepisów, grożą kary w wysokości 35 milionów euro lub 7 procent światowych przychodów. Niektórzy twierdzą, że to idzie za daleko.

„Potencjalnie katastrofalne skutki”

Stowarzyszenie Przemysłu Komputerowego i Komunikacyjnego stwierdziło, że tekst w dużej mierze odbiega od „rozsądnego podejścia opartego na ryzyku” zaproponowanego przez Komisję, która przedkładała innowacje nad nadmiernie nakazowe regulacje.

Organizacja stwierdziła, że ​​ustawa nałożyła „rygorystyczne obowiązki” na twórców najnowocześniejszych technologii, które stanowią podstawę wielu systemów niższego szczebla i dlatego prawdopodobnie utrudniają innowacje w Europie. Ostrzegło, że może to doprowadzić do exodusu talentów w zakresie sztucznej inteligencji.

„Niestety wydaje się, że szybkość zwyciężyła nad jakością, co może mieć katastrofalne skutki dla europejskiej gospodarki. Negatywny wpływ można odczuć daleko poza samym sektorem sztucznej inteligencji” – powiedział Daniel Friedlaender, starszy wiceprezes i szef CCIA Europe.

„Nie wspiera mistrzów Europy”

Niezależna organizacja France Digitale reprezentująca europejskie start-upy i inwestorów stwierdziła, że ​​sztuczna inteligencja należąca do kategorii wysokiego ryzyka będzie musiała uzyskać znak CE, co jest długim i kosztownym procesem, który może zaszkodzić start-upom.

Grupa z zadowoleniem przyjęła jednak fakt, że start-upy działające w sektorach wysokiego ryzyka mogą złożyć petycję przeciwko temu statusowi i wykazać, że ich sztuczna inteligencja nie wiąże się z wysokim ryzykiem i należy ją zmienić.

Jeśli chodzi o generatywną sztuczną inteligencję i modele podstawowe, France Digitale stwierdziła, że ​​rozporządzenie jest „bardzo rygorystyczne” i może również zaszkodzić firmom, ponieważ będą musiały ujawnić swoje prywatne modele biznesowe, które inne firmy mogłyby następnie skopiować.

„Wzywaliśmy, aby nie regulować technologii jako takiej, ale regulować jej wykorzystanie. Rozwiązanie przyjęte dziś przez Europę sprowadza się do regulowania matematyki, co nie ma większego sensu” – stwierdziła grupa.

France Digitale przestrzegła również, że Komisja może dodać dalsze kryteria w drodze aktów delegowanych, co może być ryzykowne dla start-upów, które „potrzebują widoczności i przewidywalności, aby rozwijać swoje modele biznesowe”.

„Nie możemy w żadnym momencie zmienić zasad gry” – stwierdziła grupa.

„Przyjmowanie” zasad praw autorskich

Większość modeli sztucznej inteligencji szkoli się na materiałach znalezionych w Internecie, co spowodowało serię pozwów dotyczących praw autorskich ze strony artystów i firm, które ich reprezentują, przeciwko firmom zajmującym się sztuczną inteligencją.

Ustawa zawiera surowe zasady dotyczące praw autorskich, które obejmują obowiązek przestrzegania obowiązującego w UE prawa autorskiego. Firmy mają również obowiązek upubliczniać podsumowanie treści, których używają do szkolenia modeli sztucznej inteligencji ogólnego przeznaczenia.

Ten wymóg przejrzystości i polityka mająca na celu przestrzeganie obecnych przepisów UE zostały z zadowoleniem przyjęte przez Europejskie Stowarzyszenia Autorów (GESAC), które reprezentuje 32 europejskie stowarzyszenia autorów i ponad milion autorów.

„Solidne wdrożenie umożliwiające podmiotom praw właściwe korzystanie z praw przysługujących im na mocy prawa UE ma kluczowe znaczenie dla zapewnienia, że ​​uzgodnione zasady będą miały rzeczywisty wpływ w praktyce” – powiedziała Véronique Desbrosse, dyrektor generalna stowarzyszenia.

„Stowarzyszenia autorów nie mogą się doczekać wejścia na ten nowy rynek i generowania wartości zarówno dla twórców, jak i przedsiębiorstw, przyczyniając się jednocześnie zarówno do innowacji, jak i twórczości w Europie”.

Cyberbezpieczeństwo i rozpoznawanie twarzy

Unijna ustawa o sztucznej inteligencji wprowadza surowe ograniczenia dotyczące technologii rozpoznawania twarzy i innych sygnałów behawioralnych, z wyłączeniem wyjątków związanych z egzekwowaniem prawa.

Z zadowoleniem przyjęto ograniczenia dotyczące technologii wykorzystywanej do rozpoznawania twarzy, podobnie jak przepisy dotyczące ochrony danych.

Chociaż nie ma konkretnego ustawodawstwa dotyczącego ochrony danych, ustawa ma współdziałać z unijnymi przepisami RODO, czyli unijnym rozporządzeniem o ochronie danych.

Technologia rozpoznawania twarzy będzie podlegać rygorystycznym zasadom
Technologia rozpoznawania twarzy będzie podlegać rygorystycznym zasadom

Jednak dyrektor ds. cyberbezpieczeństwa Valmiki Mukherjee powiedział TylkoGliwice Next, że ustawa może stawić czoła podobnym wyzwaniom jak RODO.

„Zastosowanie ustawy do systemów sztucznej inteligencji ogólnego przeznaczenia bez ograniczania ich stosowania poprzez oznaczanie ich wszystkich jako stwarzających wysokie ryzyko może stanowić wyzwanie” – stwierdził.

„Istnieje również potencjalny problem stworzenia jednego dużego międzynarodowego systemu nadzoru, aby zapobiegać sztucznej inteligencji opartej na inwigilacji. Nie jest jasne, jak to będzie działać w przypadku standardów cyberbezpieczeństwa, które wciąż są opracowywane”.

„Zapewnienie przyszłości – potężna technologia”

Chociaż pierwotny projekt tekstu jest wciąż finalizowany, co według niektórych komentatorów może potrwać do stycznia 2024 r. lub nawet dłużej, istnieje kolejna presja czasu, a mianowicie nowe wybory do Parlamentu Europejskiego w czerwcu, które mogą wstrząsnąć sprawami w dalszym ciągu trzeba się zgodzić.

Wybory europejskie w 2024 r. wyznaczają termin przyjęcia EU AI ACT
Wybory europejskie w 2024 r. wyznaczają termin przyjęcia EU AI ACT

„Wydaje się, że przed wyborami do parlamentu nie ma wystarczającej ilości czasu, aby poddać dyrektywę w sprawie odpowiedzialności za sztuczną inteligencję procesowi legislacyjnemu, zatem będzie musiał się tym zająć nowy Parlament i nowa Komisja, którą powoła” – powiedział Benjamin Docquir, szef działu IT i danych w międzynarodowej kancelarii prawnej Osborne Clarke.

Być może nowy Parlament UE będzie musiał także podjąć decyzję w sprawie przepisów dotyczących sztucznej inteligencji w miejscu pracy.

Kolejnym czynnikiem, który będzie decydował, będą regulacje dotyczące oprogramowania AI typu open source, które pozwala na swobodne kopiowanie i ponowne wykorzystywanie kodu komputerowego, co daje każdemu pozwolenie na zbudowanie własnego chatbota. OpenAI i Google ostrzegają, że oprogramowanie typu open source może być niebezpieczne, ponieważ technologię tę można wykorzystać do szerzenia dezinformacji.

Ponieważ technologia sztucznej inteligencji rozwija się szybko i jest mało prawdopodobne, że unijna ustawa o sztucznej inteligencji będzie egzekwowana przez członków UE przez kolejne dwa lata, rozporządzenie może być już za stare pomimo wysiłków zmierzających do zapewnienia jego elastyczności.

„Jeśli chodzi o to, co może zmienić ustawę o sztucznej inteligencji, ustawodawcy starali się, aby ustawa o sztucznej inteligencji była elastyczna, ale pojawienie się generatywnej sztucznej inteligencji pokazało, że trudno jest zapewnić przyszłe rozwiązania w odniesieniu do tak potężnej technologii” – stwierdził Docquir.