O nas
Kontakt

Meta drażni Lamę 3 jako „najinteligentniejszego asystenta AI, z którego możesz swobodnie korzystać”

Laura Kowalczyk

Derya Matras, Vice President Northern Europe, Middle East and Africa speaks at the at the Meta AI Day in London, Tuesday, April 9, 2024.

Meta ogłosiła, że ​​AI Llama 3 zostanie zintegrowana z funkcjami asystentów na Facebooku, Instagramie i WhatsApp.

Meta – spółka matka Facebooka – wypuściła dwie małe wersje swojego najnowszego modelu sztucznej inteligencji (AI) o nazwie Llama 3 i ogłosiła, że ​​zostaną one zintegrowane z funkcjami asystentów na Facebooku, Instagramie i WhatsApp.

Dyrektor generalny firmy Mark Zuckerberg nazwał go „najinteligentniejszym asystentem AI, z którego można swobodnie korzystać”.

Najpotężniejsza wersja modelu z około 400 miliardami parametrów nie została jeszcze wypuszczona, ale ma zamiar konkurować z liderami rynku, takimi jak GPT.

Kiedy jednak załoga Zuckerberga, składająca się ze wzmocnionych agentów Meta AI, zaczęła w tym tygodniu odwiedzać media społecznościowe, aby nawiązać kontakt z prawdziwymi ludźmi, ich dziwaczne wymiany zdań ujawniły ciągłe ograniczenia nawet najlepszej generatywnej technologii sztucznej inteligencji.

Jedna dołączyła do grupy matek na Facebooku, aby porozmawiać o swoim utalentowanym dziecku. Inny próbował rozdać nieistniejące przedmioty zdezorientowanym członkom forum „Kup nic”.

Meta wraz z czołowymi twórcami sztucznej inteligencji, Google i OpenAI oraz startupami takimi jak Anthropic, Cohere i francuski Mistral, opracowują nowe modele języków sztucznej inteligencji i mają nadzieję przekonać klientów, że mają najmądrzejsze, najwygodniejsze i najbardziej wydajne chatboty.

Modele językowe AI są szkolone na ogromnych pulach danych, które pomagają im przewidzieć najbardziej prawdopodobne następne słowo w zdaniu, przy czym nowsze wersje są zazwyczaj inteligentniejsze i mają większe możliwości niż ich poprzedniczki.

Najnowsze modele Meta zostały zbudowane z 8 miliardów i 70 miliardów parametrów, co stanowi miarę ilości danych, na których system jest szkolony.

„Zdecydowana większość konsumentów nie wie szczerze o podstawowym modelu bazowym lub nie przejmuje się nim zbytnio, ale sposób, w jaki go doświadczą, będzie równie przydatny, zabawny i wszechstronny asystent AI” – powiedział Nick Clegg, prezes Meta w Meta spraw globalnych w wywiadzie.

Dodał, że agent AI Meta rozluźnia się. Niektórzy uważają, że wcześniejszy model Llama 2, wypuszczony na rynek niecały rok temu, był „czasami nieco sztywny i świętoszkowaty, ponieważ nie odpowiadał na często całkowicie nieszkodliwe lub niewinne podpowiedzi i pytania” – stwierdził.

Zamieszanie wśród użytkowników Facebooka

Ale tracąc czujność, w tym tygodniu zauważono agentów AI Meta, udających ludzi z wymyślonymi doświadczeniami życiowymi.

Oficjalny chatbot Meta AI włączył się w rozmowę w prywatnej grupie matek z Manhattanu na Facebooku, twierdząc, że on również ma dziecko w okręgu szkolnym Nowego Jorku.

Asystent AI, który nie jest niezawodnie pomocny i może być aktywnie szkodliwy, stanowi duże obciążenie dla korzystających z niego osób.

Aleksandra Korołowa

adiunkt informatyki na Uniwersytecie Princeton

Jak wynika z serii zrzutów ekranu pokazanych agencji Associated Press, w konfrontacji z członkami grupy przeprosiła później, zanim komentarze zniknęły.

„Przepraszam za pomyłkę! Jestem tylko modelem z dużym językiem, nie mam doświadczenia ani dzieci” – powiedział grupie chatbot.

Jeden z członków grupy, który również bada sztuczną inteligencję, stwierdził, że było jasne, że agent nie wiedział, jak odróżnić pomocną reakcję od takiej, która byłaby postrzegana jako niewrażliwa, lekceważąca lub pozbawiona znaczenia, gdyby została wygenerowana przez sztuczną inteligencję, a nie przez człowieka.

„Asystent sztucznej inteligencji, który nie jest niezawodnie pomocny i może być aktywnie szkodliwy, stanowi duże obciążenie dla korzystających z niego osób” – powiedziała Aleksandra Korolova, adiunkt informatyki na Uniwersytecie Princeton.

Clegg powiedział w środę, że nie wiedział o tej wymianie zdań. Strona pomocy online Facebooka mówi, że agent Meta AI dołączy do rozmowy grupowej, jeśli zostanie zaproszony lub jeśli ktoś „zada pytanie w poście i nikt nie odpowie w ciągu godziny”. Administratorzy grupy mają możliwość wyłączenia tej opcji.

W innym przykładzie przedstawionym AP w czwartek agent wywołał zamieszanie na forum poświęconym wymianie niechcianych przedmiotów w pobliżu Bostonu. Dokładnie godzinę po tym, jak użytkownik Facebooka opublikował post o poszukiwaniu określonych przedmiotów, agent sztucznej inteligencji zaoferował „delikatnie używany” aparat Canon i „prawie nowy przenośny klimatyzator, którego nigdy nie użyłem”.

Nowa technologia, która „nie zawsze może przynieść oczekiwaną reakcję”

Meta stwierdziła w czwartkowym pisemnym oświadczeniu, że „jest to nowa technologia i nie zawsze może przynieść oczekiwaną reakcję, która jest taka sama dla wszystkich generatywnych systemów sztucznej inteligencji”. Firma twierdzi, że stale pracuje nad udoskonaleniem tych funkcji.

W rok po tym, jak ChatGPT wywołał szał na technologię sztucznej inteligencji, która generuje pismo, obrazy, kod i dźwięk przypominające ludzkie, przemysł technologiczny i środowisko akademickie wprowadziły około 149 dużych systemów sztucznej inteligencji szkolonych na ogromnych zbiorach danych, czyli ponad dwukrotnie więcej niż rok wcześniej, według ankieta Uniwersytetu Stanforda.

Mogą w końcu osiągnąć granicę, przynajmniej jeśli chodzi o dane, powiedział Nestor Maslej, kierownik ds. badań w Instytucie Sztucznej Inteligencji Skoncentrowanej na Człowieku na Uniwersytecie Stanforda.

„Myślę, że stało się jasne, że jeśli skalować modele na podstawie większej ilości danych, mogą one stawać się coraz lepsze” – powiedział. „Ale jednocześnie systemy te są już wytrenowane na procentach wszystkich danych, które kiedykolwiek istniały w Internet”.

Więcej danych – pozyskiwanych i przetwarzanych po kosztach, na jakie mogą sobie pozwolić jedynie giganci technologiczni i coraz częściej będących przedmiotem sporów i procesów sądowych dotyczących praw autorskich – będzie w dalszym ciągu napędzać ulepszenia.

„A jednak nadal nie potrafią dobrze zaplanować” – powiedział Maslej. „Nadal mają halucynacje. Nadal popełniają błędy w rozumowaniu”.

Dotarcie do systemów sztucznej inteligencji, które mogą wykonywać zadania poznawcze wyższego poziomu i opierać się na zdrowym rozsądku, w których ludzie nadal przodują, może wymagać wyjścia poza budowanie coraz większych modeli.

W przypadku zalewu firm próbujących wdrożyć generatywną sztuczną inteligencję wybór modelu zależy od kilku czynników, w tym kosztów.

Asystent oparty na sztucznej inteligencji

W szczególności modele językowe zostały wykorzystane do zasilania chatbotów obsługi klienta, pisania raportów i analiz finansowych oraz podsumowywania długich dokumentów.

„Widzimy, jak firmy w pewnym sensie szukają dopasowania, testują każdy z różnych modeli pod kątem tego, co próbują zrobić i znajdują taki, który jest lepszy w niektórych obszarach, a nie w innych” – powiedział Todd Lohr, lider doradztwa technologicznego w firmie KPMG.

W przeciwieństwie do innych twórców modeli sprzedających swoje usługi AI innym firmom, Meta projektuje swoje produkty AI głównie z myślą o konsumentach, czyli tych, którzy korzystają z sieci społecznościowych napędzanych reklamami.

Joelle Pineau, wiceprezes ds. badań nad sztuczną inteligencją w firmie Meta, powiedziała w zeszłym tygodniu na konferencji w Londynie, że ostatecznym celem firmy będzie uczynienie Meta AI opartej na lamach „najbardziej użytecznym asystentem na świecie”.

„Pod wieloma względami modele, które mamy dzisiaj, będą dziecinnie proste w porównaniu z modelami, które pojawią się za pięć lat” – powiedziała.

Powiedziała jednak, że „pytanie na stole” dotyczy tego, czy badaczom udało się dostroić większy model Lamy 3 tak, aby był bezpieczny w użyciu i nie powodował na przykład halucynacji ani mowy nienawiści.

W przeciwieństwie do wiodących, zastrzeżonych systemów Google i OpenAI, Meta jak dotąd opowiadała się za bardziej otwartym podejściem, publicznie udostępniając kluczowe komponenty swoich systemów AI, aby inni mogli z nich korzystać.

„To nie jest tylko kwestia techniczna” – powiedział Pineau.

„To kwestia społeczna. Jakiego zachowania oczekujemy od tych modeli? Jak to kształtujemy? A jeśli będziemy nadal rozwijać nasz model w sposób coraz bardziej ogólny i potężny, bez odpowiedniego ich uspołecznienia, będziemy mieli duży problem na naszych rękach”.