O nas
Kontakt

Brazylijski regulator zabrania firmie Meta wykorzystywania danych do szkolenia AI

Laura Kowalczyk

A person stands in front of a Meta sign outside of the company

Brazylia poszła w ślady Europy, blokując Meta możliwość korzystania z publicznych postów w celu szkolenia sztucznej inteligencji.

Najpierw w Europie, teraz w Brazylii: nowa polityka prywatności firmy Meta, zakładająca przetwarzanie publicznych postów użytkowników w mediach społecznościowych w celu trenowania ich sztucznej inteligencji (AI), została ponownie oficjalnie zablokowana.

Brazylijski krajowy urząd ochrony danych osobowych orzekł na początku tego tygodnia, że ​​nowa polityka powoduje „bezpośrednie ryzyko poważnych i nieodwracalnych lub trudnych do naprawienia szkód dla podstawowych praw osób, których dane dotyczą” – poinformował urząd w oficjalnym dzienniku urzędowym kraju.

Brazylia jest jednym z największych rynków Meta, a sam Facebook ma tam około 102 milionów aktywnych użytkowników, podała agencja w oświadczeniu.

Zablokowane również w Europie

Firma zajmująca się mediami społecznościowymi również spotkała się ze sprzeciwem wobec aktualizacji swojej polityki prywatności w Europie, gdzie niedawno zawiesiła plany wykorzystania publicznych postów użytkowników do trenowania systemów sztucznej inteligencji, które miały wejść w życie w zeszłym tygodniu.

Zmiany polityki w Europie obejmowałyby publicznie udostępniane posty, obrazy, podpisy obrazów, komentarze i historie od użytkowników powyżej 18 roku życia na Facebooku i Instagramie. Nie dotyczyły one prywatnych wiadomości.

Irlandzka Komisja Ochrony Danych (DPC) interweniowała, wysyłając do Meta wniosek od innych organów europejskich, w którym domagają się od firmy opóźnienia szkolenia dużych modeli językowych (LLM), które napędzają chatboty, takie jak ChatGPT firmy OpenAI, wykorzystujące ten typ danych.

Meta argumentowała, że ​​bez lokalnych danych będzie w stanie zapewnić użytkownikom MetaAI „tylko gorsze doświadczenie” z produktami AI, które „nie będą dokładnie rozumieć ważnych języków regionalnych, kultur ani popularnych tematów”, i dlatego opóźniła ich wdrożenie.

Firma udostępniłaby Lamę, swojego chatbota opartego na sztucznej inteligencji oraz asystenta MetaAI, gdyby miała dostęp do tych danych.

Firma Meta stwierdziła, że ​​jej podejście w Europie „jest zgodne z prawem i regulacjami” i że jest „bardziej przejrzyste niż podejście wielu (ich) odpowiedników w branży”.

Metoda „zgodna z przepisami o ochronie prywatności”

Rzecznik prasowy Meta powiedział agencji Associated Press, że firma jest „rozczarowana” i zapewnia, że ​​jej metoda „jest zgodna z brazylijskimi przepisami i regulacjami dotyczącymi prywatności”.

„To krok wstecz w zakresie innowacji i konkurencji w rozwoju sztucznej inteligencji, a także dalsze opóźnienia w udostępnianiu korzyści płynących ze sztucznej inteligencji mieszkańcom Brazylii” – dodał rzecznik.

Meta stwierdził w oświadczeniu, że odmowa udziału jest możliwa.

Pomimo tej opcji istnieją „nadmierne i nieuzasadnione przeszkody w dostępie do informacji i wykonywaniu” prawa do rezygnacji – podała agencja w oświadczeniu.

Meta nie dostarczyła wystarczających informacji, które pozwoliłyby ludziom zdać sobie sprawę z możliwych konsekwencji wykorzystania ich danych osobowych do rozwoju generatywnej sztucznej inteligencji – dodano.

Decyzja „zaszkodzi przejrzystości” w zakresie sposobu wykorzystywania danych

Hye Jung Han, brazylijska badaczka pracująca dla Human Rights Watch w Brazylii, napisała we wtorek w wiadomości e-mail, że działania regulatora „pomagają chronić dzieci przed obawami, że ich dane osobowe udostępniane znajomym i rodzinie na platformach Meta mogą zostać wykorzystane do wyrządzenia im krzywdy w sposób, którego nie da się przewidzieć ani się przed nim zabezpieczyć”.

Decyzja dotycząca Meta „bardzo prawdopodobnie” zachęci inne firmy do powstrzymania się od transparentności w kwestii korzystania z danych w przyszłości, powiedział Ronaldo Lemos z think tanku Institute of Technology and Society of Rio de Janeiro.

„Meta została surowo ukarana za to, że była jedyną firmą Big Tech, która jasno i z wyprzedzeniem poinformowała w swojej polityce prywatności, że będzie wykorzystywać dane ze swoich platform do trenowania sztucznej inteligencji” – powiedział.

Spółka musi wykazać zgodność z wymogami w ciągu pięciu dni roboczych od powiadomienia o decyzji, a w przypadku niedopełnienia tego obowiązku agencja nałożyła karę dzienną w wysokości 50 000 reali (8330 euro).