Con un ritardo di quasi otto mesi da Sora di OpenAI, nella giornata di oggi Meta ha presentato il suo strumento per creare video a partire dai testi. Lo ha chiamato Movie Gen ed è un modello text-to-video, in gergo, cioè uno strumento di intelligenza artificiale generativa che, dato un testo, genera un video. Come Sora, non è al momento accessibile, ma l’azienda di Mark Zuckerberg ne ha condiviso vari dettagli ed esempi di ciò che può, anzi potrà fare.

Come funziona Meta Movie Gen, l’IA per generare video (e non solo)

Bastano poche parole a Movie Gen per creare dei video, per modificarne di già esistenti e per generare delle tracce audio da abbinare a filmati generati e non. Ma iniziamo dalla prima e più interessante abilità di questo nuovo strumento di Meta, che funziona sostanzialmente come le altre intelligenze artificiali generative che creano testi e immagini: l’utente digita un breve testo e ottiene un filmato, più o meno coerente con quanto immaginava in base al prompt fornito.

Ecco un esempio di un video realistico generato con Meta Movie Gen e basato sulla seguente descrizione: “Una bambina corre su una spiaggia tenendo in mano un aquilone. Indossa dei pantaloncini di jeans e una maglietta gialla. Il sole splende”.

 

Oltre ai testi, Meta Movie Gen può anche usare come sorgente, come fonte da cui partire, dei video o delle immagini statiche già esistenti, che poi modifica in base agli input testuali indicatigli dall’utente.

Oltre ai video, che è possibile creare in diversi fattori di forma (aspect ratio), Meta Movie Gen può generare anche dell’audio da abbinare ai filmati generati, suoni che siano coerenti con le immagini e quindi adatti al video generato. Lo strumento permette inoltre di creare clip audio per video reali, o comunque non generati da Movie Gen, fornendo, anche in questo caso, delle brevi descrizioni di ciò che si intende ottenere.

Sulla pagina web dedicata a Movie Gen, ci sono anche altri esempi di quello che sa fare questo nuovo strumento di Meta, che non è tuttavia accessibile al momento, né si sa quando (e se) si potrà usare. Il chief product officer di Meta Chris Cox ha scritto su Threads che la società non è ancora pronta per rilasciarlo pubblicamente in tempi brevi perché è troppo costoso e perché è ancora lento il processo di generazione.

“Mentre continuiamo a migliorare i nostri modelli e ci muoviamo verso un potenziale rilascio futuro, lavoreremo a stretto contatto con registi e creatori di contenuti per integrare il loro feedback. Adottando un approccio collaborativo vogliamo assicurarci di creare strumenti che aiutino le persone a migliorare la loro creatività intrinseca in modi che non avrebbero mai immaginato possibili” ha scritto Meta. Per maggiori dettagli, intanto, è possibile dare un’occhiata al relativo documento di ricerca (da ben 92 pagine).

I nostri contenuti da non perdere: