Introducendo Runway Gen-3 Alpha
Runway ha svelato il suo ultimo capolavoro di IA, Gen-3 Alpha. Questo modello all'avanguardia sarà disponibile entro pochi giorni direttamente tramite l'applicazione. Il CEO dell'azienda, Cristóbal Valenzuela, promette velocità di elaborazione fulminee: 45 secondi per generare 5 secondi di video, e 90 secondi per 10 secondi di filmato. Nelle parole di Valenzuela, questo strumento è "creato per artisti e da artisti."
Capacità video avanzate
L'IA è stata messa a punto con video e immagini per migliorare i movimenti facciali e ampliare la gamma di stili creativi disponibili. Ora, gli utenti possono generare un set più diversificato di video seguendo un'ampia gamma di istruzioni.
Le demo pubblicate da Runway mostrano la notevole capacità del modello di simulare elementi come fuoco e pioggia. Emozionante, il team sta anche lavorando per ricreare le leggi fisiche e migliorare la generazione di esseri umani fotorealistici.
Introducendo Gen-3 Alpha: il nuovo modello base di Runway per la generazione di video. Gen-3 Alpha può creare video altamente dettagliati con cambiamenti complessi di scena, una vasta gamma di scelte cinematografiche e direzioni artistiche dettagliate.
La ricerca di modelli di mondo generali
Questo nuovo sviluppo segna un altro passo nella ricerca dei modelli di mondo generali, potenti sistemi di IA capaci di simulare universi altamente dettagliati e complessi.
Inoltre, Gen-3 Alpha è allenato nel linguaggio cinematografico per interpretare meglio i suggerimenti dei cineasti.
Per garantire un uso responsabile, Runway ha implementato un sistema di moderazione C2PA per monitorare l'aderenza alle politiche di utilizzo dell'applicazione. Questo è uno standard tecnico aperto che fornisce ai publisher, ai creatori e ai consumatori la possibilità di tracciare l'origine di diversi tipi di media.
Il panorama competitivo si riscalda
Nel frattempo, in Cina, la potenza dell'IA Kling è entrata nella corsa, aumentando la concorrenza nei modelli di trasformazione del testo in video guidati dall'IA. Negli USA, Dream Machine è stato il leader iniziale, con Runway che ora segue con il suo nuovo promettente algoritmo.
L'assente notevole è Sora di OpenAI, che finora è stato testato solo in ambienti controllati con pochi video isolati rilasciati. Giugno si sta rivelando un mese avvincente per il mondo audiovisivo, con potenziali sorprese ancora in corso.
Nuove funzionalità in Dream Machine
Dream Machine di Luma AI non sta arrestandosi nemmeno. L'applicazione ora consente agli utenti di estendere i video di ulteriori 5 secondi. L'IA continua lo stile del video, espandendo il movimento, ma ogni estensione richiede un nuovo prompt e consuma un credito.
In arrivo su Dream Machine – potente capacità di modifica e controlli intuitivi! Ecco un'anteprima di qualcosa di eccitante verso cui stiamo lavorando.
Luma AI ha anche anticipato nuove funzionalità che permetteranno ai creatori di contenuti di modificare facilmente gli sfondi dei video o elementi specifici con un semplice clic, senza dover generare un nuovo video.
Questi aggiornamenti sono destinati a rendere lo strumento più intuitivo e accessibile a un pubblico più ampio, in contrasto con l'approccio più orientato agli esperti di Runway.
Resta aggiornato!
Vuoi rimanere al passo con i più recenti progressi in tecnologia, IA e media? Non perderti nulla! Iscriviti alla nostra newsletter e ricevi gli aggiornamenti più freschi direttamente nella tua casella di posta.
Commenti
0 commenti
Questo articolo è chiuso ai commenti.