Présentation de Runway Gen-3 Alpha
Runway a dévoilé son dernier miracle de l'IA, Gen-3 Alpha. Ce modèle de pointe sera disponible dans quelques jours directement via l'application. Le CEO de la société, Cristóbal Valenzuela, promet des vitesses de traitement fulgurantes : 45 secondes pour générer 5 secondes de vidéo et 90 secondes pour 10 secondes de séquences. Selon Valenzuela, cet outil est "créé pour les artistes et par les artistes."
Capacités de vidéo avancées
L'IA a été affinée avec des vidéos et des images pour améliorer les mouvements faciaux et élargir la gamme de styles créatifs disponibles. Désormais, les utilisateurs peuvent générer un ensemble plus diversifié de vidéos en suivant un éventail plus large d'instructions.
Les démos publiées par Runway montrent l'impressionnante capacité du modèle à simuler des éléments comme le feu et la pluie. De manière excitante, l'équipe travaille également sur la recréation des lois physiques et l'amélioration de la génération d'humains photoréalistes.
Présentation de Gen-3 Alpha : le nouveau modèle de base de Runway pour la génération vidéo. Gen-3 Alpha peut créer des vidéos très détaillées avec des changements de scène complexes, un large éventail de choix cinématiques et des directions artistiques détaillées.
La quête des modèles du monde général
Ce nouveau développement marque une nouvelle étape dans la poursuite des Modèles de Monde Général, des systèmes d'IA puissants capables de simuler des univers hautement détaillés et complexes.
De plus, Gen-3 Alpha est entraîné dans le langage cinématographique pour mieux interpréter les consignes des cinéastes.
Pour garantir une utilisation responsable, Runway a mis en place un système de modération C2PA pour surveiller le respect des politiques d'utilisation de l'application. Il s'agit d'une norme technique ouverte offrant aux éditeurs, créateurs et consommateurs la possibilité de tracer l'origine des différents types de médias.
Le paysage concurrentiel s'intensifie
Pendant ce temps, en Chine, le géant de l'IA Kling est entré dans la course, intensifiant la concurrence dans les modèles de conversion de texte en vidéo basés sur l'IA. Aux États-Unis, Dream Machine a été le premier leader, avec Runway qui suit maintenant avec son nouvel algorithme prometteur.
Le grand absent est Sora d'OpenAI, qui n'a jusqu'à présent été testé que dans des environnements contrôlés avec quelques vidéos isolées publiées. Juin s'avère être un mois captivant pour le monde audiovisuel, avec des surprises potentielles encore à venir.
Nouvelles fonctionnalités dans Dream Machine
Luma AI's Dream Machine n'est pas non plus resté inactif. L'application permet désormais aux utilisateurs de prolonger les vidéos de 5 secondes supplémentaires. L'IA continue le style de la vidéo, étendant le mouvement, mais chaque extension nécessite une nouvelle consigne et consomme un crédit.
Bientôt disponible sur Dream Machine – une puissance d'édition et des contrôles intuitifs ! Voici un aperçu excitant de ce sur quoi nous travaillons.
Luma AI a également annoncé de nouvelles fonctionnalités permettant aux créateurs de contenu de modifier facilement les arrière-plans vidéo ou des éléments spécifiques en un simple clic, sans avoir besoin de générer une nouvelle vidéo.
Ces améliorations sont conçues pour rendre l'outil plus intuitif et accessible à un public plus large, en contraste avec le modèle plus orienté vers les experts de Runway.
Restez informé !
Vous voulez rester au courant des dernières avancées en matière de technologie, d'IA et de médias ? Ne manquez rien ! Abonnez-vous à notre newsletter et recevez les toutes dernières mises à jour directement dans votre boîte de réception.
Commentaires
0 commentaire
Cet article n'accepte pas de commentaires.