O nas
Kontakt

„Moje obawy dotyczą bardziej ludzi i instytucji niż technologii”: Meredith Whittaker z Signal o sztucznej inteligencji

Laura Kowalczyk

„Moje obawy dotyczą bardziej ludzi i instytucji niż technologii”: Meredith Whittaker z Signal o sztucznej inteligencji

Prezes Signal, Meredith Whittaker, rozmawiała z TylkoGliwice Next o europejskich regulacjach dotyczących sztucznej inteligencji, prywatności i zdrowia psychicznego w nowej erze sztucznej inteligencji (AI).

Meredith Whittaker, prezes fundacji non-profit Signal Foundation, która obsługuje zaszyfrowaną aplikację komunikatora Signal, jest jedną z pierwszych myślicielek w dziedzinie sztucznej inteligencji (AI), która w 2006 roku kierowała grupą badawczą zajmującą się tą technologią dla Google.

Zorganizowała strajk w Google w związku z jego podejściem do molestowania seksualnego i w 2019 roku została wyrzucona z firmy.

Następnie była współzałożycielką Instytutu AI Now i była doradcą amerykańskiej Federalnej Komisji Handlu. Nadal ma obawy dotyczące Big Tech i sposobu, w jaki kontroluje ona nasze dane w nowej erze sztucznej inteligencji.

Podczas tegorocznego szczytu internetowego w Lizbonie rozmawiała z TylkoGliwice Next na temat sztucznej inteligencji w Europie i regulacji.

TylkoGliwice Next: Dużo mówiłeś o swoich obawach związanych ze sztuczną inteligencją i tym szumie wokół sztucznej inteligencji, przez który przechodzimy. Co szczególnie Cię niepokoi?

Meredith Whittaker: Myślę, że moje obawy nie dotyczą samej technologii, a bardziej faktu, że jest ona rozwijana i kontrolowana przez garstkę dużych korporacji, których interesy są oczywiście interesami korporacji oraz zyskiem, wzrostem i zadowoleniem akcjonariusze; niekoniecznie dobro społeczne.

I że sztuczna inteligencja, którą sprzedają, na którą licencjonują, tworzą i wdrażają, wymaga ogromnych ilości danych, wymaga ogromnych ilości mocy obliczeniowej oraz skutecznie wzmacnia i rozszerza model biznesowy nadzoru, który jest na pierwszym miejscu jest sercem tak wielu szkód, które niepokoją większość świata w związku z niewyjaśnioną technologią.

Myślę, że moje obawy i obawy dotyczą bardziej ludzi, instytucji i zachęt, które kształtują sztuczną inteligencję, niż samej technologii lub idei, że może ona w jakiś sposób stać się czująca lub podobna do Boga.

Porozmawiajmy o zarządzaniu i regulowaniu sztucznej inteligencji. Czy regulacje idą wystarczająco daleko? A dokładniej, w miarę jak Europa przygotowuje swój własny mandat w zakresie sztucznej inteligencji, jak sobie radzi Europa?

(Europejska) ustawa o sztucznej inteligencji nie jest jeszcze ukończona. Nie do końca wiemy, jaka będzie ostateczna forma. Myślę, że powinniśmy na chwilę zawiesić osądzanie. Myślę, że Europa zrobiła już wiele, co można wykorzystać do skutecznego powstrzymania niektórych szkód powodowanych przez sztuczną inteligencję.

Jednym z przykładów, jaki przytoczyłbym, jest fakt, że RODO jest ściśle interpretowane i egzekwowane. Ściśle można by z łatwością zastosować do zakazania reklam monitorujących, a zakaz reklam monitorujących miałby ogromny i dość radykalny wpływ na restrukturyzację bodźców napędzających te korporacje.

Meredith Whittaker, przewodnicząca otwartej grupy badawczej Google, przemawia do setek pracowników Google podczas wiecu protestacyjnego, 2018 r.
Meredith Whittaker, przewodnicząca otwartej grupy badawczej Google, przemawia do setek pracowników Google podczas wiecu protestacyjnego, 2018 r.

Oznaczałoby to, że nagle tak ogromna ilość danych wykorzystywana do tworzenia profili demograficznych sprzedawanych reklamodawcom, w ramach mikrotargetowania i kierowania reklam do różnych typów ludzi nie będzie już dłużej dozwolona.

A to oczywiście miałoby wpływ na sztuczną inteligencję, ponieważ to źródło danych, wiesz, wszystko, co publikujemy w mediach społecznościowych, nasze dane o lokalizacji, nasz wykres społecznościowy, wszystko to nagle stałoby się znacznie mniej przydatne.

I w ścisłej interpretacji, być może niedopuszczalne, aby te scentralizowane korporacje gromadziły i utrzymywały. To jeden z przykładów, że Europa już się w tej sprawie ustosunkowała. Pytanie dotyczy tak naprawdę woli politycznej.

Zagłębmy się w wolę polityczną. Czy sądzisz, że może bardziej w USA panuje koncepcja, aby podejść do tego bardziej korporacyjnie i osiągnąć większy zysk?

Ależ oczywiście. Duża liczba tych korporacji ma siedzibę w USA. To ich jurysdykcja i Stany Zjednoczone doskonale o tym wiedzą. To te korporacje współpracują z rządem USA.

Często zapewniają infrastrukturę dla rządu. Znaleźliśmy się w bardzo niejasnej sytuacji politycznej w USA, gdzie minęło 20, 30 lat, w zależności od tego, gdzie liczyć, a nie mamy federalnego prawa dotyczącego prywatności.

Jedną z rzeczy, która napawa mnie nadzieją, jest to, że bardzo trudno jest zbudować te wielkoskalowe, globalne systemy w sposób dostosowany do każdej jurysdykcji.

Tak potężne regulacje z Europy lub z innego dużego rynku mają wpływ na kształtowanie tych korporacji, nawet jeśli nie pochodzą z jurysdykcji, w której mają siedzibę.

Jak duże zagrożenie będą stanowić „spotshopy” AI gromadzące dane?

Myślę, że tak naprawdę problemem jest kwestia pracy. Niedawno oszacowano, że 100 milionów ludzi jest zatrudnionych na bardzo niepewnych stanowiskach, w rzeczywistości pełniąc rolę ludzkich stewardów i dostarczając ludzkiej inteligencji, którą przypisują sztuczna inteligencja i firmy zajmujące się sztuczną inteligencją.

To jest więc etykietowanie danych. To jest selekcja danych, to jest kalibracja. Mówienie systemowi, co jest dopuszczalne, a co nie. To jest moderowanie treści; to jest kontrola błędów i zarządzanie problemami powodowanymi przez systemy sztucznej inteligencji, gdy zachowują się nieprawidłowo.

To ogromna liczba osób.

Myślę, że istnieją poważne problemy związane z jakością tej pracy. Istnieją realne problemy związane ze szkodami, jakie ta praca wyrządza zdrowiu psychicznemu ludzi. To nie jest kontrowersyjne.

Praca polegająca na wielokrotnym oglądaniu lub konfrontacji z przerażającymi obrazami lub tekstami ma udokumentowany i bardzo wyraźny szkodliwy wpływ na zdrowie psychiczne ludzi. Mamy świadectwa ludzi, którzy stracili pracę, związki i zdolność do bycia w świecie z powodu tego, jak bardzo było to niepokojące.

Myślę, że istnieje ważniejsza kwestia, od której musimy odejść: czy te systemy wymagają takiej skali szkód, a które wyrządzają, nie ma innego sposobu, aby sprawić, by te systemy działały i były w pewnym sensie akceptowalne w biznesie i powszechnym użyciu.

Czy jest nam z tym wygodnie?

Czy uważasz, że prywatność będzie jedną z bardziej znaczących ofiar w związku z coraz większą liczbą osób korzystających z oprogramowania generującego sztuczną inteligencję, takiego jak Chat GPT?

Prywatność od dawna była ofiarą technologicznego modelu biznesowego.

Signal będzie nadal zapewniać prawdziwie prywatną bezpieczną przystań przed żarłocznymi zbiorami danych, które definiują resztę branży.

Ale z pewnością ten wyścig do czegoś większego jest lepszy. Sztuczna inteligencja stwarza ogromne ryzyko dla prywatności. Wzywa do tworzenia i gromadzenia coraz bardziej intymnych, coraz bardziej wszechobecnych i coraz bardziej inwazyjnych danych o nas, o naszych społecznościach.

Jest to siła umożliwiająca dalszą centralizację tych danych w rękach kilku firm, co ponownie stanowi siłę, której nie da się wytłumaczyć. Bardzo trudno znaleźć analogię w historii.

Skrytykowałeś brytyjską ustawę o bezpieczeństwie w Internecie za położenie kresu szyfrowaniu typu end-to-end. Co sądzisz o tym i unijnych przepisach dotyczących danych?

(brytyjska ustawa o bezpieczeństwie w Internecie) zawierała coś, co w rzeczywistości uznałbym za rodzaj produktu lub przynajmniej częściowo produkt tego szumu dotyczącego sztucznej inteligencji, co było bardzo błędną klauzulą ​​sugerującą, że opierało się na przekonaniu, że systemy sztucznej inteligencji mogą w jakiś sposób skanować dane osobowe każdej osoby. Komunikacja.

Dopasowanie tego do bazy danych dozwolonych wyrażeń w sposób prywatny i bezpieczny oraz, oczywiście, długotrwały konsensus technologiczny. Cała społeczność ekspertów wie, że to nieprawda.

Dlatego walczyliśmy z tym, ponieważ jako Signal polegamy na kompleksowym szyfrowaniu, aby zapewnić znaczącą opcję prawdziwie prywatnej komunikacji w świecie pełnym inwigilacji. Ponieważ byliśmy bardzo zaniepokojeni tym prawem.

Obecnie w Europie obowiązują podobne przepisy. Wygląda na to, że właśnie zaadaptowali go, aby wyłączyć ze skanowania wiadomości zaszyfrowane w Internecie, co jest świetne. Ale oczywiście zbliżają się rozmowy trójstronne i mamy do czynienia ze złożonym procesem politycznym. Jeszcze nie skończyliśmy.

Cieszymy się jednak, że wysuwając na pierwszy plan społeczność praw człowieka, wnosząc na pierwszy plan prawdziwą wiedzę techniczną, a nie działy marketingu firm zajmujących się sztuczną inteligencją, mogliśmy jasno dać do zrozumienia, że ​​było to myślenie magiczne i w rzeczywistości niezwykle niebezpieczne dla praw i wolności .