O nas
Kontakt

Czego możemy się spodziewać po wejściu w życie unijnej ustawy o sztucznej inteligencji?

Laura Kowalczyk

A representation of artificial intelligence

TylkoGliwice Next przygląda się temu, co przyniesie przyszłość, czyli miesiącom i latom, w których firmy będą przygotowywać się do spełnienia wymogów prawnych.

Ustawa UE o sztucznej inteligencji wchodzi w życie w czwartek i będzie miała zastosowanie do wszystkich systemów sztucznej inteligencji (AI) już istniejących lub będących w fazie rozwoju.

Ustawa ta jest powszechnie uznawana za pierwszy na świecie akt prawny mający na celu regulację sztucznej inteligencji na podstawie ryzyka, jakie ona stwarza.

Ustawodawstwo zostało uchwalone w marcu, ale jego opublikowanie w lipcu w dzienniku urzędowym Komisji Europejskiej zapoczątkowało proces jego wejścia w życie.

Data 1 sierpnia wyznacza szereg dat i harmonogramów na nadchodzące miesiące i lata, które mają na celu przygotowanie firm wykorzystujących sztuczną inteligencję w jakikolwiek sposób do zapoznania się z nowymi przepisami i dostosowania się do nich.

Ustawa o sztucznej inteligencji ocenia firmy na podstawie ryzyka

Ustawa UE o sztucznej inteligencji ustala zasady dla każdej firmy wykorzystującej systemy sztucznej inteligencji na podstawie czterech poziomów ryzyka, które z kolei determinują ramy czasowe mające do nich zastosowanie.

Istnieją cztery rodzaje ryzyka: brak ryzyka, minimalne ryzyko, wysokie ryzyko i zakazane systemy sztucznej inteligencji.

UE całkowicie zakaże pewnych praktyk od lutego 2025 r. Dotyczy to również tych, które manipulują podejmowaniem decyzji przez użytkownika lub rozszerzają bazy danych rozpoznawania twarzy poprzez scrapowanie Internetu.

Inne systemy sztucznej inteligencji, które uznano za systemy wysokiego ryzyka, takie jak systemy zbierające dane biometryczne oraz systemy wykorzystywane w kluczowej infrastrukturze lub przy podejmowaniu decyzji dotyczących zatrudnienia, będą podlegać najsurowszym regulacjom.

Firmy te będą musiały m.in. przedstawić swoje zestawy danych szkoleniowych dotyczących sztucznej inteligencji i udowodnić nadzór człowieka.

Według Thomasa Regniera, rzecznika Komisji Europejskiej, około 85 proc. firm zajmujących się sztuczną inteligencją mieści się w drugiej kategorii „minimalnego ryzyka” i wymaga bardzo niewielu regulacji.

Firmy mają od 3 do 6 miesięcy na dostosowanie się

Heather Dawe, szefowa działu odpowiedzialnej sztucznej inteligencji w firmie konsultingowej UST, już współpracuje z międzynarodowymi klientami, aby dostosować sposób korzystania ze sztucznej inteligencji do wymogów nowej ustawy.

Międzynarodowi klienci Dawe’a „akceptują” nowe wymogi prawa, ponieważ uznają, że regulacje dotyczące sztucznej inteligencji są konieczne.

Dodała, że ​​może to potrwać od trzech do sześciu miesięcy, w zależności od wielkości firmy i roli sztucznej inteligencji w jej procesie pracy, aby dostosować się do nowego prawa.

„Istnieje jasny zestaw wytycznych dotyczących tego, co musisz zrobić. Wszelkie komplikacje wynikają z niewystarczająco szybkiego rozpoczęcia procesu”.

Heather Dawe, szefowa odpowiedzialnej sztucznej inteligencji w firmie konsultingowej UST

„Istnieje jasny zbiór wytycznych dotyczących tego, co musisz zrobić” – powiedział Dawe. „Wszelkie komplikacje wynikają z niewystarczająco szybkiego rozpoczęcia procesu”.

Dawe dodał, że firmy mogłyby rozważyć powołanie wewnętrznych rad ds. zarządzania sztuczną inteligencją, składających się z ekspertów prawnych, technicznych i ds. bezpieczeństwa, których zadaniem byłoby przeprowadzenie pełnego audytu stosowanych technologii i sposobu, w jaki muszą one przestrzegać nowego prawa.

Regnier z Komisji poinformował, że jeżeli okaże się, że przedsiębiorstwo nie stosuje się do ustawy o sztucznej inteligencji w wyznaczonym terminie, może zostać ukarane grzywną w wysokości do siedmiu procent swojego globalnego rocznego obrotu.

Jak przygotowuje się Komisja

Biuro ds. Sztucznej Inteligencji Komisji Europejskiej będzie nadzorować przestrzeganie zasad dotyczących modeli sztucznej inteligencji ogólnego przeznaczenia.

Regnier powiedział, że sześćdziesięciu pracowników Komisji zostanie przekierowanych do tego biura, a w przyszłym roku zostanie zatrudnionych kolejnych 80 kandydatów zewnętrznych.

Zgodnie z komunikatem prasowym Rada ds. AI, złożona z delegatów wysokiego szczebla ze wszystkich 27 państw członkowskich UE, „przygotowała grunt” do wdrożenia ustawy na swoim pierwszym czerwcowym spotkaniu.

Regnier dodał, że zarząd będzie współpracować z biurem ds. sztucznej inteligencji, aby zapewnić zharmonizowane stosowanie ustawy w całej UE.

Ponad 700 firm oświadczyło, że podpisze Pakt na rzecz AI, czyli zobowiązanie do jak najszybszego dostosowania się do przepisów.

Państwa członkowskie UE mają czas do sierpnia przyszłego roku na powołanie krajowych organów kompetentnych, które będą nadzorować stosowanie przepisów na ich terenie.

Komisja przygotowuje się również do zwiększenia inwestycji w sztuczną inteligencję, przeznaczając na ten cel 1 mld euro w 2024 r. oraz do 20 mld euro do 2030 r.

„Wszędzie słyszy się, że to, co robi UE, to czysta regulacja (…) i że to zablokuje innowację. To nieprawda” – powiedział Regnier. „Ustawodawstwo nie ma na celu powstrzymania firm przed wprowadzaniem swoich systemów – wręcz przeciwnie.

„Chcemy, aby działali w UE, ale chcemy chronić naszych obywateli i nasze przedsiębiorstwa”.

Regnier powiedział, że dla Komisji jednym z głównych wyzwań jest regulacja przyszłych technologii sztucznej inteligencji, ale wierzy, że system oparty na ryzyku oznacza, że ​​można szybko regulować wszelkie nowe systemy.

Potrzebne są dalsze poprawki

Risto Uuk, szef badań UE w Future of Life Institute, uważa, że ​​Komisja Europejska musi jeszcze udzielić wyjaśnień na temat ryzyka, jakie niosą ze sobą poszczególne technologie.

Na przykład Uuk stwierdził, że użycie drona do zrobienia zdjęć wokół źródła wody, które wymaga naprawy „nie wydaje się superryzykowne”, mimo że mieści się w kategorii wysokiego ryzyka przewidzianej w przepisach.

„Kiedy czytasz to teraz, jest to dość ogólne” – powiedział Uuk. „Mamy te wytyczne na bardziej ogólnym poziomie i to jest pomocne, ponieważ firmy mogą wtedy zadać pytanie, czy konkretny system jest wysokiego ryzyka”.

Uuk uważa, że ​​w miarę postępu wdrażania Komisja będzie mogła udzielić bardziej szczegółowych informacji zwrotnych.

Według Uuk, kolejnym krokiem mogłoby być nałożenie większej liczby ograniczeń i wyższych grzywien na duże firmy technologiczne, które zajmują się generatywną sztuczną inteligencją (GenAI) w UE.

Duże firmy zajmujące się sztuczną inteligencją, takie jak OpenAI i DeepMind, są uważane za „sztuczną inteligencję ogólnego przeznaczenia” i zaliczają się do kategorii minimalnego ryzyka.

Firmy opracowujące rozwiązania sztucznej inteligencji ogólnego przeznaczenia muszą udowodnić, w jaki sposób przestrzegają praw autorskich, publikować podsumowanie danych szkoleniowych i udowodnić, w jaki sposób chronią cyberbezpieczeństwo.

Według organizacji pozarządowej European Digital Rights, jednym z obszarów wymagających poprawy są prawa człowieka.

„Ubolewamy, że ostateczna wersja ustawy zawiera kilka dużych luk w zakresie biometrii, działań policji i bezpieczeństwa narodowego. Wzywamy prawodawców do ich usunięcia” – powiedział rzecznik w oświadczeniu przekazanym stacji TylkoGliwice Next.