Brazylia poszła w ślady Europy, blokując Meta możliwość korzystania z publicznych postów w celu szkolenia sztucznej inteligencji.
Najpierw w Europie, teraz w Brazylii: nowa polityka prywatności firmy Meta, zakładająca przetwarzanie publicznych postów użytkowników w mediach społecznościowych w celu trenowania ich sztucznej inteligencji (AI), została ponownie oficjalnie zablokowana.
Brazylijski krajowy urząd ochrony danych osobowych orzekł na początku tego tygodnia, że nowa polityka powoduje „bezpośrednie ryzyko poważnych i nieodwracalnych lub trudnych do naprawienia szkód dla podstawowych praw osób, których dane dotyczą” – poinformował urząd w oficjalnym dzienniku urzędowym kraju.
Brazylia jest jednym z największych rynków Meta, a sam Facebook ma tam około 102 milionów aktywnych użytkowników, podała agencja w oświadczeniu.
Zablokowane również w Europie
Firma zajmująca się mediami społecznościowymi również spotkała się ze sprzeciwem wobec aktualizacji swojej polityki prywatności w Europie, gdzie niedawno zawiesiła plany wykorzystania publicznych postów użytkowników do trenowania systemów sztucznej inteligencji, które miały wejść w życie w zeszłym tygodniu.
Zmiany polityki w Europie obejmowałyby publicznie udostępniane posty, obrazy, podpisy obrazów, komentarze i historie od użytkowników powyżej 18 roku życia na Facebooku i Instagramie. Nie dotyczyły one prywatnych wiadomości.
Irlandzka Komisja Ochrony Danych (DPC) interweniowała, wysyłając do Meta wniosek od innych organów europejskich, w którym domagają się od firmy opóźnienia szkolenia dużych modeli językowych (LLM), które napędzają chatboty, takie jak ChatGPT firmy OpenAI, wykorzystujące ten typ danych.
Meta argumentowała, że bez lokalnych danych będzie w stanie zapewnić użytkownikom MetaAI „tylko gorsze doświadczenie” z produktami AI, które „nie będą dokładnie rozumieć ważnych języków regionalnych, kultur ani popularnych tematów”, i dlatego opóźniła ich wdrożenie.
Firma udostępniłaby Lamę, swojego chatbota opartego na sztucznej inteligencji oraz asystenta MetaAI, gdyby miała dostęp do tych danych.
Firma Meta stwierdziła, że jej podejście w Europie „jest zgodne z prawem i regulacjami” i że jest „bardziej przejrzyste niż podejście wielu (ich) odpowiedników w branży”.
Metoda „zgodna z przepisami o ochronie prywatności”
Rzecznik prasowy Meta powiedział agencji Associated Press, że firma jest „rozczarowana” i zapewnia, że jej metoda „jest zgodna z brazylijskimi przepisami i regulacjami dotyczącymi prywatności”.
„To krok wstecz w zakresie innowacji i konkurencji w rozwoju sztucznej inteligencji, a także dalsze opóźnienia w udostępnianiu korzyści płynących ze sztucznej inteligencji mieszkańcom Brazylii” – dodał rzecznik.
Meta stwierdził w oświadczeniu, że odmowa udziału jest możliwa.
Pomimo tej opcji istnieją „nadmierne i nieuzasadnione przeszkody w dostępie do informacji i wykonywaniu” prawa do rezygnacji – podała agencja w oświadczeniu.
Meta nie dostarczyła wystarczających informacji, które pozwoliłyby ludziom zdać sobie sprawę z możliwych konsekwencji wykorzystania ich danych osobowych do rozwoju generatywnej sztucznej inteligencji – dodano.
Decyzja „zaszkodzi przejrzystości” w zakresie sposobu wykorzystywania danych
Hye Jung Han, brazylijska badaczka pracująca dla Human Rights Watch w Brazylii, napisała we wtorek w wiadomości e-mail, że działania regulatora „pomagają chronić dzieci przed obawami, że ich dane osobowe udostępniane znajomym i rodzinie na platformach Meta mogą zostać wykorzystane do wyrządzenia im krzywdy w sposób, którego nie da się przewidzieć ani się przed nim zabezpieczyć”.
Decyzja dotycząca Meta „bardzo prawdopodobnie” zachęci inne firmy do powstrzymania się od transparentności w kwestii korzystania z danych w przyszłości, powiedział Ronaldo Lemos z think tanku Institute of Technology and Society of Rio de Janeiro.
„Meta została surowo ukarana za to, że była jedyną firmą Big Tech, która jasno i z wyprzedzeniem poinformowała w swojej polityce prywatności, że będzie wykorzystywać dane ze swoich platform do trenowania sztucznej inteligencji” – powiedział.
Spółka musi wykazać zgodność z wymogami w ciągu pięciu dni roboczych od powiadomienia o decyzji, a w przypadku niedopełnienia tego obowiązku agencja nałożyła karę dzienną w wysokości 50 000 reali (8330 euro).