Mira Murati, Chief Technology Officer (CTO) d’OpenAI, a donné un aperçu de la sortie prévue et des défis de développement du modèle de conversion de texte en vidéo d’OpenAI, Sora, lors d’une interview accordée au Wall Street Journal. Le générateur d’IA texte-vidéo Sora devrait être commercialisé par OpenAI dans le courant de l’année, voire dans les prochains mois, ce qui est une excellente nouvelle. Regardez l’interview de 10 minutes de Murati ci-dessous pour en savoir plus sur ce que nous pouvons attendre de Sora et d’OpenAI dans un avenir proche.
Date de sortie d’OpenAI Sora
Mira Murati, Chief Technology Officer d’OpenAI, a fait allusion à la sortie de Sora AI dans une interview accordée au Wall Street Journal. L’attente ne porte pas seulement sur la technologie elle-même, mais aussi sur le potentiel qu’elle recèle pour diverses applications. L’un des principaux obstacles auxquels OpenAI s’attaque de front est le coût de cette technologie sophistiquée. L’objectif est de rendre Sora AI aussi abordable que possible, idéalement au même niveau que les coûts associés au créateur d’images d’OpenAI, DallE 3. Il s’agit d’une ambition ambitieuse, mais elle souligne la volonté de l’organisation de rendre les technologies de pointe accessibles à un plus large public.
Regardez cette vidéo sur YouTube.
M. Murati a expliqué que Sora AI est conçu en tenant compte de vos besoins et en veillant à ce que l’interface soit aussi intuitive que possible. Si vous avez déjà utilisé ChatGPT, l’interface de Sora AI vous sera familière et permettra une communication fluide et directe. En outre, les développeurs pourront intégrer Sora AI dans leurs propres applications via une API, ce qui ouvrira un monde de possibilités pour incorporer ce modèle avancé de conversion de texte en vidéo dans divers logiciels et services.
Interview de Mira Murati, CTO d’OpenAI, avec le WSJ
Le générateur de vidéos d’IA en est encore à ses débuts
Cependant, il est important de reconnaître que Sora AI est encore en cours de développement. Comme pour toute technologie émergente, il y a des problèmes à résoudre. Les versions actuelles du modèle ne produisent pas toujours des vidéos qui correspondent parfaitement aux invites de saisie, et vous pouvez rencontrer des pépins occasionnels. Il ne s’agit pas d’obstacles insurmontables, mais plutôt d’étapes dans le processus continu d’amélioration. L’OpenAI travaille activement à résoudre ces problèmes, en mettant l’accent sur l’amélioration de la précision et de la fonctionnalité globale du modèle.
OpenAI explique qu’elle apprend à l’IA à comprendre et à simuler le monde physique en mouvement, dans le but de former des modèles qui aident les gens à résoudre des problèmes nécessitant une interaction avec le monde réel. Sora, son modèle de conversion de texte en vidéo, peut générer des vidéos d’une durée maximale d’une minute tout en préservant la qualité visuelle et le respect des instructions de l’utilisateur.
Sora est à la disposition des membres de l’équipe rouge pour évaluer les zones critiques en termes de dommages ou de risques. Nous donnons également accès à un certain nombre d’artistes visuels, de concepteurs et de cinéastes afin d’obtenir leur avis sur la manière de faire évoluer le modèle pour qu’il soit le plus utile possible aux professionnels de la création. L’IA texte-vidéo est capable de générer des scènes complexes avec plusieurs personnages, des types de mouvements spécifiques et des détails précis sur le sujet et l’arrière-plan. Le modèle comprend non seulement ce que l’utilisateur a demandé dans l’invite, mais aussi comment ces éléments existent dans le monde physique.
Le modèle d’IA Sora a une compréhension approfondie du langage, ce qui lui permet d’interpréter avec précision les invites et de générer des personnages convaincants qui expriment des émotions vibrantes. Sora peut également créer plusieurs plans au sein d’une même vidéo générée, en conservant avec précision les personnages et le style visuel.
Limites actuelles
« Le modèle actuel présente des faiblesses. Il peut avoir du mal à simuler avec précision la physique d’une scène complexe et ne pas comprendre les cas spécifiques de cause à effet. Par exemple, une personne peut mordre dans un biscuit, mais après coup, le biscuit peut ne pas avoir de trace de morsure. Le modèle peut également confondre les détails spatiaux d’une invite, par exemple en confondant la gauche et la droite, et peut avoir du mal à décrire précisément des événements qui se déroulent dans le temps, comme suivre une trajectoire de caméra spécifique » – explique l’OpenAI.
Gardez donc un œil sur l’horizon de Sora AI. La possibilité de transformer un texte en vidéo est sur le point de devenir une réalité, et elle promet d’ouvrir de nouvelles voies à la créativité et à la communication. Que vous soyez un créateur de contenu, un éducateur ou simplement quelqu’un qui aime explorer les dernières technologies, Sora AI est prête à offrir une nouvelle façon passionnante de s’engager dans le monde numérique. Sora sera bientôt disponible dans tous les produits et services d’IA d’OpenAI. Comme toujours, nous vous tiendrons au courant de tous les développements et de toutes les nouvelles qui pourraient être disponibles.
Lire plus Guide:
- OpenAI dévoile Sora, un générateur de texte en vidéo
- Comment accéder au générateur de vidéos d’IA de type texte-vidéo de l’OpenAI Sora
- Un regard plus attentif sur le générateur vidéo Sora d’OpenAI
- De nouveaux exemples vidéo de l’IA OpenAI Sora sont révélés et l’accès est élargi à certains artistes et utilisateurs.
- Un aperçu du nouveau générateur vidéo Sora de l’OpenAI
- Plus de détails sur le générateur vidéo Sora d’OpenAI