O nas
Kontakt

Aby chronić nasze prawa, unijny akt dotyczący sztucznej inteligencji musi uwzględniać gwarancje praworządności

Laura Kowalczyk

Aby chronić nasze prawa, unijny akt dotyczący sztucznej inteligencji musi uwzględniać gwarancje praworządności

Sztuczna inteligencja jest częścią codziennego życia na niezliczone sposoby, a sposób, w jaki zdecydujemy się ją regulować, będzie kształtował nasze społeczeństwa. Prawodawcy UE muszą skorzystać z tej okazji, aby stworzyć prawo, które wykorzysta te możliwości, nie podważając ochrony naszych praw ani praworządności, piszą Eva Simon i Jonathan Day.

Unijny akt prawny o sztucznej inteligencji – pierwsze na świecie kompleksowe ramy prawne dla sztucznej inteligencji – znajduje się w końcowej fazie negocjacji, zanim stanie się prawem.

Teraz, gdy uzgadniane są ostatnie szczegóły, europejscy prawodawcy muszą skorzystać z okazji, aby chronić prawa człowieka i zdecydowanie uregulować wykorzystanie sztucznej inteligencji.

Co jednak najważniejsze, w debacie wokół ustawy o sztucznej inteligencji nie poświęcono wystarczającej uwagi kluczowemu elementowi: ustawa musi ustanawiać jasno określony związek między sztuczną inteligencją a praworządnością.

Chociaż szeroko omawiano kwestię uwzględnienia w ustawie gwarancji praw człowieka, równie ważne jest ustanowienie powiązania z praworządnością.

Demokracja, prawa człowieka i praworządność są ze sobą powiązane, ale nadal stanowią odrębne pojęcia, które są od siebie zależne i których nie można rozdzielić bez wyrządzenia szkody społeczeństwu.

Szansa na wzmocnienie praworządności w Europie

Zasada praworządności ma fundamentalne znaczenie dla UE. Jest to warunek wstępny realizacji innych podstawowych wartości i korzystania z praw człowieka.

Choć niezwykle trudne do zdefiniowania, praworządność obejmuje zbiór wartości niezbędnych w społeczeństwie demokratycznym: przejrzysty i pluralistyczny proces stanowienia prawa; rozdział władzy oraz kontrola i równowaga; niezależne, bezstronne sądy i możliwość dostępu do nich; oraz niedyskryminacja i równość wobec prawa.

Ustawa o sztucznej inteligencji daje szansę na stworzenie solidnego, bezpiecznego otoczenia regulacyjnego opartego na prawach podstawowych oraz rządach opartych na standardach i gwarancjach prawnych.

Michał Dyjuk/Copyright 2023 The AP.  Wszelkie prawa zastrzeżone
Budynek Sądu Najwyższego przy pomniku bohaterów Powstania Warszawskiego w Warszawie, luty 2023 r.

Biorąc pod uwagę coraz większą integrację sztucznej inteligencji z sektorem prywatnym i publicznym, potrzebujemy solidnych zabezpieczeń chroniących sam fundament, na którym stoi nasza Unia: niewłaściwe wykorzystanie systemów sztucznej inteligencji stanowi poważne zagrożenie dla praworządności i demokracji.

W państwach członkowskich, w których te zasady się wahają, luki regulacyjne można wykorzystać do osłabienia instytucji i procesów demokratycznych oraz praworządności.

Ustawa o sztucznej inteligencji daje szansę na stworzenie solidnego, bezpiecznego otoczenia regulacyjnego opartego na prawach podstawowych oraz rządach opartych na standardach i gwarancjach prawnych.

Właściwy nadzór nad sztuczną inteligencją wykorzystywaną w systemach wymiaru sprawiedliwości

Najważniejszym elementem tych zabezpieczeń jest włączenie obowiązkowych ocen skutków dla praw podstawowych.

Są one uwzględnione w uchwalonej przez Parlament Europejski wersji ustawy o sztucznej inteligencji i konieczne jest, aby znalazły się w ostatecznym tekście tej ustawy.

Te oceny wpływu na prawa podstawowe są niezbędne, aby zapewnić zgodność technologii sztucznej inteligencji i ich wdrażania z zasadami sprawiedliwości, rozliczalności i uczciwości.

Aby zapewnić niezależność sądów, prawo do sprawiedliwego procesu i przejrzystość, sztuczna inteligencja wykorzystywana w systemach wymiaru sprawiedliwości musi podlegać odpowiedniemu nadzorowi i być zgodna z praworządnością.

AP Photo/Francois Mori
Wejście na salę sądową w Paryżu, październik 2022 r

Wykraczając jednak dalej, do ocen skutków należy dodać standardy w zakresie praworządności wraz z ustrukturyzowanymi ramami umożliwiającymi ocenę potencjalnego ryzyka, uprzedzeń i niezamierzonych konsekwencji wdrożenia sztucznej inteligencji.

Oprócz samej identyfikacji potencjalnych ryzyk, mogą one obejmować strategie łagodzenia, okresowe przeglądy i aktualizacje.

Umożliwia to również reagowanie na naruszenia praworządności wynikające ze stosowania sztucznej inteligencji przy użyciu wszelkich środków dostępnych UE – na przykład gdy mają one miejsce w systemach wymiaru sprawiedliwości w sprawach karnych, z których wiele wykorzystuje sztuczną inteligencję do zautomatyzowanych procesów decyzyjnych w celu ograniczenia obciążenie i presja czasowa sędziów.

Aby jednak zapewnić niezależność sądów, prawo do sprawiedliwego procesu i przejrzystość, sztuczna inteligencja wykorzystywana w systemach wymiaru sprawiedliwości musi podlegać odpowiedniemu nadzorowi i być zgodna z praworządnością.

Ryzyko profilowania i nielegalnej inwigilacji

Co ważne, prawodawcy powinni położyć podwaliny pod właściwą ochronę praworządności w ustawie o sztucznej inteligencji, pomijając ogólne wyłączenie dotyczące bezpieczeństwa narodowego.

Systemy sztucznej inteligencji opracowane lub wykorzystywane do celów bezpieczeństwa narodowego muszą być objęte zakresem ustawy; w przeciwnym razie państwo członkowskie mogłoby z łatwością je wykorzystać – na przykład do publicznego nadzoru lub analizy ludzkich zachowań – po prostu powołując się na wyjątek w zakresie bezpieczeństwa narodowego.

Bezpieczeństwo narodowe może oznaczać różne rzeczy w całej UE, w zależności od prawa państw członkowskich.

AP Photo/Francisco Seco
Lider hiszpańskiej Partii Socjalistycznej Pedro Sanchez rozmawia przez telefon podczas sesji w hiszpańskim parlamencie w Madrycie, lipiec 2016 r.

Skandal związany z oprogramowaniem szpiegowskim Pegasus, podczas którego dziennikarze, obrońcy praw człowieka i politycy byli inwigilowani przez własne rządy, pokazuje wyraźną potrzebę zadbania o to, aby systemy opracowane lub wykorzystywane do celów bezpieczeństwa narodowego nie były wyłączone z zakresu ustawy o sztucznej inteligencji.

Co więcej, bezpieczeństwo narodowe może oznaczać różne rzeczy w całej UE, w zależności od prawa państw członkowskich.

Profilowanie obywateli w oparciu o interesy rządów krajowych spowodowałoby nierówność w całej UE, stwarzając równe zagrożenie zarówno dla praworządności, jak i praw podstawowych.

Żadnych ogólnych wyjątków

W obliczu zbliżających się wyborów w Polsce i do Parlamentu Europejskiego nie ma wątpliwości, że sztuczna inteligencja może i będzie wykorzystywana do kierowania do indywidualnych osób spersonalizowanych komunikatów, w tym do szerzenia dezinformacji, co może zniekształcić skądinąd uczciwe wybory.

Z drugiej strony narzędzia sztucznej inteligencji zostaną wdrożone do sprawdzania faktów, blokowania botów i treści, a także identyfikowania farm trolli. Techniki te muszą być przejrzyste, aby zapobiec niewłaściwemu użyciu lub nadużyciu władzy.

Konieczność wyraźnego powiązania praworządności z ustawą o sztucznej inteligencji jest jasna, podobnie jak znaczenie nakazania ocen skutków uwzględniających zarówno prawa podstawowe, jak i praworządność – bez ogólnego wyjątku w przypadku zastosowań związanych z bezpieczeństwem narodowym.

Sztuczna inteligencja jest częścią codziennego życia na niezliczone sposoby, a sposób, w jaki zdecydujemy się ją regulować, będzie kształtował nasze społeczeństwa.

Prawodawcy UE muszą skorzystać z tej okazji, aby stworzyć prawo, które wykorzysta możliwości sztucznej inteligencji, nie podważając ochrony naszych praw ani praworządności.