Twórca ChatGPT twierdzi, że generatywne narzędzie AI będzie w stanie tworzyć wysokiej jakości filmy na podstawie pisemnych podpowiedzi, choć nie jest jeszcze dostępne do użycia.
Twórca ChatGPT zaprezentował w czwartek swój kolejny krok w kierunku generatywnej sztucznej inteligencji (AI) za pomocą narzędzia, które natychmiast tworzy krótkie filmy w odpowiedzi na pisemne polecenia.
Nowy generator konwersji tekstu na wideo OpenAI z siedzibą w San Francisco, nazwany Sora, nie jest pierwszym tego rodzaju. Google, Meta i start-up Runway ML to jedne z innych firm, które zademonstrowały podobną technologię.
Jednak wysoka jakość filmów wyświetlanych przez OpenAI – niektóre po tym, jak dyrektor generalny Sam Altman poprosił użytkowników mediów społecznościowych o przesyłanie pomysłów na pisemne podpowiedzi – zdumiała obserwatorów, jednocześnie budząc obawy dotyczące implikacji etycznych i społecznych.
„Instruktażowa sesja gotowania domowych gnocchi prowadzona przez babcię wpływową z mediów społecznościowych, zorganizowana w rustykalnej toskańskiej wiejskiej kuchni z kinowym oświetleniem” – zasugerował na X, dawniej Twitterze, niezależny fotograf z New Hampshire w USA.
Chwilę później Altman odpowiedział realistycznym filmem przedstawiającym to, co opisano w podpowiedzi.
Konsultacje z artystami OpenAI przed wydaniem
Narzędzie nie jest jeszcze publicznie dostępne, a OpenAI ujawniło ograniczone informacje na temat sposobu jego zbudowania.
Firma, która została pozwana przez niektórych autorów i dziennik „The New York Times” w związku z wykorzystaniem dzieł chronionych prawem autorskim do szkolenia ChatGPT, również nie ujawniła, jakie zdjęcia i źródła wideo zostały wykorzystane do szkolenia Sory.
Firma płaci nieujawnioną opłatę firmie Associated Press za licencję na archiwum wiadomości tekstowych.
OpenAI poinformowało w poście na blogu, że przed udostępnieniem nowego narzędzia współpracuje z artystami, decydentami i innymi osobami.
„Współpracujemy z czerwonymi członkami zespołu – ekspertami w takich dziedzinach, jak dezinformacja, treści nienawistne i uprzedzenia – którzy będą kontradyktoryjnie testować model” – podała firma.
„Tworzymy także narzędzia pomagające wykrywać wprowadzające w błąd treści, takie jak klasyfikator wykrywania, który potrafi określić, kiedy film został wygenerowany przez Sorę”.