Aujourd’hui, OpenAI a dévoilé Sora 2, son modèle de génération de vidéos le plus avancé à ce jour, ainsi qu’une toute nouvelle application sociale à la TikTok. Avec une fonctionnalité appelée "caméos", les utilisateurs peuvent désormais s’insérer dans des scènes créées par IA avec une fidélité remarquable.
Sora 2 franchit une étape majeure dans la vidéo réaliste. Il synchronise les dialogues, les effets sonores et les mouvements en respectant la physique du monde réel—ainsi les flips de gymnastique ou les astuces de street soccer semblent authentiques, sans distorsions ni bugs.
Contrairement aux outils antérieurs qui déformaient la réalité pour correspondre aux requêtes textuelles, Sora 2 génère des vidéos qui paraissent ancrées dans le réel. Imaginez capturer l’énergie d’une danse locale ou d’un match de pelota en haute définition, avec des mouvements et des sons naturels.
OpenAI n’est pas seul dans cette course. Google, Runway AI et Midjourney proposent tous des générateurs de clips instantanés. Ce qui distingue Sora 2, c’est son mélange de fidélité visuelle et d’un terrain de jeu social conçu autour du partage des créations.
La nouvelle application Sora, disponible sur invitation aux États-Unis et au Canada pour l’instant, permet de publier vos vidéos IA dans un flux qui ressemble à TikTok ou Instagram Reels. Prêt à vous voir jouer dans des scènes que vous avez imaginées ? Les caméos rendent cela possible.
OpenAI affirme que le générateur est gratuit au lancement avec des limites généreuses, bien que l’utilisation intensive dépende de la rareté de la puissance de calcul. L’entreprise prévoit également des vérifications de bien-être et des contrôles de contenu pour répondre aux préoccupations liées au défilement sans fin et à la santé mentale.
Alors que les outils IA évoluent à une vitesse fulgurante, Sora 2 marque une nouvelle étape importante. Pour les jeunes créatifs et entrepreneurs du Sud global, cela pourrait être l’étincelle pour de nouvelles histoires, marques et aventures rendues possibles grâce à l’IA.
Reference(s):
cgtn.com