O nas
Kontakt

Polityka UE. Meta twierdzi, że podąża za Google i OpenAI w szkoleniu sztucznej inteligencji za pomocą danych

Laura Kowalczyk

The Facebook application on a phone.

Gigant technologiczny spotyka się ze skargami dotyczącymi wykorzystania danych osobowych w swoich modelach sztucznej inteligencji.

Właściciel Facebooka i Instagrama Meta, podąża za przykładem Google i OpenAI, wykorzystując dane od swoich europejskich użytkowników do szkolenia systemów sztucznej inteligencji, stwierdziła w opublikowanym wczoraj (10 czerwca) poście na blogu.

Meta znalazła się pod ostrzałem austriackiej organizacji zajmującej się ochroną prywatności NOYB, która w zeszłym tygodniu złożyła skargi do organów nadzorujących prywatność w jedenastu państwach członkowskich UE po tym, jak gigant technologiczny zaktualizował swoją politykę prywatności, prosząc o pobieranie wszystkich publicznych i niepublicznych danych użytkowników – z wyjątkiem rozmów między osobami fizycznymi oraz treści z kont osób poniżej 18 roku życia – i wykorzystaj je do szkolenia technologii sztucznej inteligencji, takich jak Llama i asystent Meta AI.

Meta stwierdziła na swoim blogu, że aby „właściwie służyć naszym społecznościom europejskim, modele napędzające sztuczną inteligencję w Meta muszą być szkolone w oparciu o odpowiednie informacje, które odzwierciedlają różnorodne języki, położenie geograficzne i odniesienia kulturowe mieszkańców Europy, którzy z nich korzystają”.

Dodał, że nie jest to pierwsza firma, która to robi. „Podążamy za przykładem innych, w tym Google i OpenAI, które wykorzystały już dane od europejskich użytkowników do szkolenia sztucznej inteligencji. Nasze podejście jest bardziej przejrzyste i zapewnia łatwiejszą kontrolę niż wielu naszych odpowiedników z branży, którzy już szkolą swoje modele na podobnych publicznie dostępnych informacjach” – dodał w oświadczeniu.

Firma wysłała ponad dwa miliardy powiadomień w aplikacji i e-maili do użytkowników w Europie, wyjaśniając praktyki i zawierając link do formularza sprzeciwu.

Obawy dotyczące ochrony danych

Amerykańska firma Big Tech oświadczyła, że ​​prowadzi rozmowy ze swoim głównym organem regulacyjnym ds. prywatności w Europie, irlandzką Komisją Ochrony Danych, na temat odpowiedzialnego budowania modeli.

„Uwzględniliśmy ich dotychczasowe opinie, aby mieć pewność, że sposób, w jaki szkolimy sztuczną inteligencję w Meta, jest zgodny z unijnymi przepisami dotyczącymi prywatności” – stwierdziła firma.

W swojej skardze NOYB stwierdziła w zeszłym tygodniu, że praktyki Meta są niezgodne z ogólnym rozporządzeniem UE o ochronie danych (RODO). „Technologia sztucznej inteligencji” to niezwykle szerokie pojęcie. Podobnie jak „wykorzystywanie danych w bazach danych” nie ma rzeczywistych ograniczeń prawnych” – powiedział Max Schrems, prawnik i założyciel NOYB.

Aby zachować zgodność z RODO, Meta będzie opierać się na podstawie prawnej „uzasadnionych interesów”. Irlandzka Komisja Ochrony Danych powiedziała w zeszłym tygodniu TylkoGliwice Next, że „Meta opóźniła uruchomienie w związku z wieloma zapytaniami ze strony DPC, które zostały rozpatrzone”. DPC twierdzi, że Meta powiadomiła użytkowników z czterotygodniowym wyprzedzeniem przed wstępnym szkoleniem.