OpenAI lance Sora 2, générateur de vidéos IA, avec audio synchronisé et une nouvelle application sociale iOS, malgré des avis mitigés concernant la durée des clips et l'accessibilité

Par
CTOL Editors - Lang Wang
8 min de lecture

Quand la physique rencontre l'imagination : Sora 2 d'OpenAI propulse la vidéo IA dans une nouvelle ère

Le nouveau modèle apporte un mouvement réaliste, un son synchronisé et un aperçu des ambitions plus larges d'OpenAI. Mais les clips courts et le déploiement limité montrent que ce n'est pas toute l'histoire – du moins pas encore.

SAN FRANCISCO – OpenAI vient de lever le voile sur Sora 2, et il est déjà comparé au « moment GPT-3.5 » qui a jadis redéfini l'IA textuelle. Le premier Sora, lancé en février 2024, laissait entrevoir l'avenir mais trébuchait sur les bases – la physique semblait caricaturale et la synchronisation labiale était aléatoire. Cette nouvelle version change la donne. Désormais, vous pouvez voir un ballon de basket frapper le panneau, rebondir comme il se doit, ou un paddleboarder rater un backflip avec toute la physique des éclaboussures intacte. Même les dialogues se synchronisent parfaitement avec les lèvres animées, ce que les créateurs attendaient.

Et ce n'est pas seulement la technologie. OpenAI lance une application iOS compagnon centrée sur les « Cameos », une fonctionnalité qui permet aux utilisateurs d'intégrer leur propre image et leur voix dans des clips générés par l'IA. Pour l'instant, c'est sur invitation seulement et limité aux États-Unis et au Canada, mais la stratégie est claire : OpenAI veut une place à la table du contenu court aux côtés de TikTok et YouTube Shorts.

Le saviez-vous ? Bill Peebles, le responsable de Sora, est un jeune chercheur titulaire d'un Bachelor du MIT et d'un doctorat de l'UC Berkeley ; il a effectué des stages chez NVIDIA, Adobe et Meta, puis a rejoint OpenAI et a dirigé l'effort qui a « créé Sora 2 ».

Bill Peebles (googleusercontent.com)
Bill Peebles (googleusercontent.com)


Le bond qui pourrait réécrire les règles de production

Alors, qu'est-ce qui distingue vraiment Sora 2 ? Trois choses : l'audio synchronisé, une physique plus solide et des personnages qui restent cohérents sur plusieurs plans. Les modèles précédents avaient la mauvaise habitude de déformer la réalité juste pour satisfaire une invite – pensez aux objets qui se téléportent, aux mains qui fondent dans les outils ou aux personnes qui réalisent des saltos impossibles.

Cette fois, le modèle reconnaît l'échec. Demandez-lui d'animer une gymnaste, et il n'imposera pas une routine parfaite. Des ratés, des atterrissages manqués, une impulsion qui se transfère réellement lors d'une collision – tout cela apparaît naturellement. Comme l'a dit un chercheur : « Sora 2 comprend que parfois les gens tombent et que les objets ne se comportent pas parfaitement. C'est ce qui le rend crédible. »

Pour les créateurs, c'est énorme. Auparavant, créer une vidéo IA signifiait jongler avec des clips silencieux et des pistes audio séparées, puis tout synchroniser minutieusement. Sora 2 condense ce flux de travail en une seule étape – générant la vidéo, le dialogue, le bruit de fond et les effets sonores ensemble. Il peut également changer de style sur commande, que vous souhaitiez un réalisme cinématographique, un style anime ou quelque chose entre les deux, tout en maintenant la continuité intacte.


Une application sociale qui est en réalité un moteur de données

Au-delà des démonstrations impressionnantes, la stratégie d'OpenAI devient plus claire. Les Cameos exigent des utilisateurs qu'ils s'enregistrent – voix et visage – avant de pouvoir apparaître dans leurs propres clips. En surface, c'est une personnalisation amusante. En réalité, les analystes y voient quelque chose de plus profond : OpenAI collecte des données biométriques de première qualité pour alimenter les futurs modèles multimodaux, ceux qui comprennent non seulement les images, mais aussi le fonctionnement du monde physique.

Un stratège l'a résumé sans détour : « Il ne s'agit pas de concurrencer TikTok demain. Il s'agit de poser les bases de modèles de simulation du monde pour les années à venir. »

L'application elle-même privilégie la création plutôt que le défilement passif. Sa « philosophie du fil d'actualité » met l'accent sur le contenu remixable, les recommandations en langage naturel et des règles plus strictes pour les jeunes utilisateurs, y compris les contrôles parentaux liés à ChatGPT. Des couches de modération, le filigrane numérique et des règles contre le deepfake de personnalités publiques sont également intégrés. Les utilisateurs gardent le contrôle de leurs Cameos, avec la possibilité de suivre chaque clip où leur image apparaît et de les révoquer à tout moment.


Des démos époustouflantes, mais des limites en situation réelle

Les démonstrations impressionnent au premier abord – un dragon se frayant un chemin à travers des flèches glacées avec des tourbillons d'ailes en spirale dans son sillage, ou des explorateurs criant dans un blizzard avec des voix parfaitement synchronisées à la tempête. Pourtant, lorsque l'équipe de CTOL.digital a regardé au-delà des extraits promotionnels, les fissures ont commencé à apparaître.

Les clips courts de moins de cinq secondes tiennent bien à 720p et 30fps. Allez au-delà, et les coutures se déchirent. Les personnages perdent leurs expressions, les objets scintillent anormalement, et l'illusion commence à s'effriter. Notre équipe a même inventé un terme pour cela : le problème des « yeux morts ». Un clip de test a montré à quel point les défauts peuvent être flagrants – un homme pédalant rapidement à travers une forêt avec son chat perché sur sa tête. Au lieu d'un détail fantaisiste, le rendu semblait creux, ses bords bruts criant « généré par l'IA ». Un autre membre de l'équipe a testé le cas de « l'eau qui se déverse dans un puits sans fond d'une falaise » et la vidéo résultante était au mieux immobile.

« Nous avons besoin de bien plus de 10 secondes. Nous sommes déjà en 2025 », a déclaré un membre de l'équipe, exaspéré. D'autres ont exprimé leur frustration face à ce qu'ils ont appelé la « soupe IA » – le flot de contenu de faible qualité, produit en masse, qui risque de submerger les fils d'actualité.


Les ombres légales et éthiques

L'équipe de CTOL.digital a également soulevé deux questions brûlantes : le droit d'auteur et la confidentialité.

Concernant le droit d'auteur, Sora 2 peut imiter des styles populaires avec une précision déconcertante. C'est stimulant pour les fans mais inquiétant pour les artistes humains qui craignent que leur travail ne soit noyé par des créations IA dérivées.

En matière de confidentialité, la capture biométrique des Cameos a soulevé des drapeaux rouges. Les examinateurs ont mis en doute la robustesse de la vérification, la sécurité du stockage des données et ce qui pourrait arriver en cas de défaillance des contrôles. OpenAI insiste sur le fait que les utilisateurs conservent tous leurs droits et peuvent les révoquer à tout moment, mais les inquiétudes subsistent.


Concurrents, coûts et pression du marché

OpenAI n'est pas seul sur ce front. Veo 3 de Google génère déjà des clips vidéo synchronisés avec l'audio, jusqu'à huit secondes, via Gemini et AI Studio. Le prix se situe autour de 0,40 $ par seconde pour Veo 3, ou 0,15 $ pour la version plus rapide. Cela met la pression sur OpenAI pour maintenir les clips Sora 2 sous la barre des 2 $ pour 10 secondes, surtout s'il espère étendre l'utilisation de son API.

Le défi ne concerne pas seulement la capacité, mais aussi l'efficacité. Les GPU Blackwell, la colonne vertébrale de ce type de travail, coûtent entre 30 000 $ et 50 000 $ l'unité, et les tarifs de location de cloud ne cessent de fluctuer.

Pendant ce temps, des acteurs établis comme Runway, Luma et Pika détiennent déjà des positions solides dans les flux de travail professionnels avec des prises plus longues, des chronologies d'édition et des outils de gestion des droits. Les observateurs s'attendent à l'émergence de flux de travail hybrides : Sora 2 pour les clips courts spectaculaires, les outils traditionnels pour le polissage et l'assemblage de projets plus longs.


Le verdict du terrain

Le bilan de CTOL.digital ? Sora 2 est un bond en avant mais reste fragile. La physique semble juste, et l'audio synchronisé est une aubaine. Mais les plans plus longs, l'émotion humaine et le traitement fin des objets cèdent encore sous la pression.

Ils ont averti que les préoccupations en matière de confidentialité et les limites de déploiement pourraient ralentir l'adoption, même si la cohérence des personnages et l'intégration audio ouvrent de nouvelles portes créatives. Leur verdict : un progrès impressionnant, mais toujours un écart entre les démos soignées et la production quotidienne.


Ce que les investisseurs surveillent

Les analystes perçoivent des effets d'entraînement dans plusieurs directions.

Parmi les gagnants à court terme figurent NVIDIA et les fournisseurs de cloud GPU comme CoreWeave, car la demande en puissance de calcul ne fait que grimper. Microsoft, avec ses liens étroits avec OpenAI et sa puissance Azure, pourrait également en bénéficier. Apple pourrait également en tirer profit, grâce à la distribution iOS et au potentiel de traitement sur appareil.

À moyen terme, les outils de conformité pour la vérification du contenu IA semblent prometteurs. La loi sur l'IA de l'UE et les nouvelles lois des États américains exigeront davantage d'étiquetage, de filigrane et de détection. Les entreprises de logiciels créatifs qui intègrent Sora 2 dans leurs chaînes de montage – en particulier avec des storyboards multi-plans et des contrôles de version – pourraient se tailler des niches lucratives.

Des risques subsistent. Les géants de la vidéo courte comme TikTok et YouTube pourraient ressentir une certaine pression sur l'engagement, mais leurs réseaux, leurs systèmes de paiement et leur portée mondiale sont difficiles à concurrencer. Sans Android ni outils de monétisation, Sora 2 ne les détrônera pas de sitôt.

À titre de contexte, l'action NVIDIA a clôturé aujourd'hui à 186,58 $, en hausse de 4,74 $, avec un volume de transactions supérieur à 236 millions d'actions – un signe que la confiance des investisseurs dans l'infrastructure IA ne faiblit pas encore.


Les analystes rappellent la clause de non-responsabilité habituelle : les tendances passées ne garantissent pas les résultats futurs. Quiconque envisage un investissement doit faire ses propres recherches et consulter un conseiller agréé.

Vous aimerez peut-être aussi

Cet article est soumis par notre utilisateur en vertu des Règles et directives de soumission de nouvelles. La photo de couverture est une œuvre d'art générée par ordinateur à des fins illustratives uniquement; ne reflète pas le contenu factuel. Si vous pensez que cet article viole les droits d'auteur, n'hésitez pas à le signaler en nous envoyant un e-mail. Votre vigilance et votre coopération sont inestimables pour nous aider à maintenir une communauté respectueuse et juridiquement conforme.

Abonnez-vous à notre bulletin d'information

Obtenez les dernières nouvelles de l'entreprise et de la technologie avec des aperçus exclusifs de nos nouvelles offres

Nous utilisons des cookies sur notre site Web pour activer certaines fonctions, fournir des informations plus pertinentes et optimiser votre expérience sur notre site Web. Vous pouvez trouver plus d'informations dans notre Politique de confidentialité et dans nos Conditions d'utilisation . Les informations obligatoires se trouvent dans les mentions légales