Raport twierdzi, że ustawa AI ma podejście przyjazne dla biznesu, w którym złożone i podstawowe pytania są pozostawione w rękach organizacji ustalających standard.
Duże firmy technologiczne są nieproporcjonalnie zaangażowane w opracowywanie uznanych standardów UE dla narzędzi sztucznej inteligencji, jak twierdzi raport grupy kampanii Corporate Europe Observatory (CEO).
W raporcie stwierdzono, że ponad połowa (55%) 143 członków biorących udział we wspólnym komitecie technicznym AI (JTC21) – utworzonym przez europejskie organy standaryzacyjne Cen i Cenelec – reprezentuje firmy lub konsultacje, z 54 z pierwszych i 24 z nich.
Spośród nich prawie 25% to przedstawiciele korporacyjne z amerykańskich firm, w tym czterech członków z Microsoft i IBM, dwóch z Amazon i co najmniej trzech z Google.
Natomiast udział społeczeństwa obywatelskiego jest ograniczony: stanowi tylko 9% członków JTC21, co według CEO budzi obawy dotyczące włączenia w proces ustalania standardów.
Ustawa AI, pierwsza na świecie próba uregulowania AI poprzez podejście oparte na ryzyku, została zatwierdzona w sierpniu ubiegłego roku, a przepisy stopniowo zaczną się stosować.
Komisja Europejska zwróciła się do Cen-Pelenec i ETSI w maju 2023 r. O przygotowaniu podstawowych standardów dla przemysłu, które będą miały zastosowanie do produktów, od urządzeń medycznych po zabawki. Dzięki tym zharmonizowanym standardom firma może upewnić się, że jej produkt spełnia niezbędne wymagania bezpieczeństwa określone w zasadach UE.
„Decyzja Komisji Europejskiej o przekazaniu publicznej polityki w sprawie sztucznej inteligencji na rzecz prywatnego organu jest głęboko problematyczna. Po raz pierwszy ustawienie standardowe jest wykorzystywane do wdrażania wymagań związanych z prawami podstawowymi, uczciwością, wiarygodnością i stronniczością”, mówi Bram Vranken, badacz obserwatorium w Europie w Europie.
Raport twierdzi, że ustawa AI ma podejście przyjazne dla biznesu, w którym złożone i podstawowe pytania są pozostawione w rękach organizacji ustalających standard.
Krajowe organy ustalające standardowe
Organizacje ustanawiające standardowe zwykle koncentrują się bardziej na procesie niż określonym wyniku. „Może to być niezadowalające, ponieważ ma tendencję do utrudniania wyniku”, powiedział w raporcie przewodniczący JTC21 Sebastian Hallensleben.
Powiedział, że system AI może mieć znak CE, który firmy otrzymują poprzez następujące procesy zdefiniowane w zharmonizowanych standardach, ale nie gwarantuje to, że system AI nie będzie stronniczy ani dyskryminujący.
Ponadto dyrektor generalny spojrzał na członkostwo krajowych organów ustalających standardy pracujące nad sztuczną inteligencją we Francji, Wielkiej Brytanii i Holandii. W tych krajach udział ekspertów reprezentujących interesy korporacyjne wynosi odpowiednio 56%, 50%i 58%, zgodnie z raportem.
Komisja powiedziała w odpowiedzi na obawy CEO, że standardy dostarczone przez CEN-CENELEC „będą podlegać oceny przez Komisję Europejską i będą cytowane w oficjalnym czasopiśmie tylko wtedy, gdy właściwie rozwiązują cele Ustawy AI i odpowiednio odzwierciedlają wymagania dotyczące systemów AI wysokiego ryzyka”.
„Ponadto istnieje wiele innych zabezpieczeń, aby zapewnić pewną kontrolę nad procesem, takie jak możliwość państw członkowskich i parlamentu europejskiego sprzeciwu wobec zharmonizowanych standardów” – dodaje oświadczenie.
W wywiadzie dla TylkoGliwice opublikowanych w zeszłym miesiącu, wyższy urzędnik w holenderskiej prywatności Watchdog Autoriteit Persoonsgegevens (AP) – nadchodzący krajowy organ regulacyjny ds. AI – ostrzegł, że proces ustanowienia standardów będzie musiał być szybszy i ten czas „jest wyczerpany”.
„Procesy standaryzacji zwykle trwają wiele lat. Z pewnością uważamy, że należy je przyspieszyć” – powiedział.
Przewodniczący Etsi, Jan Ellsberger, powiedział TylkoGliwice, kiedy objął urząd w sierpniu, że może potrwać miesiące do kilku lat przed przyjęciem standardów.
„Standaryzacja jest dobrowolnym żądaniem branży. Im większe zaangażowanie z branży, tym szybciej”, powiedział Ellsberger.







