Actualités IA - Apcl Formation et coaching à Paris 15 ou à distance

Actualités
sur l’IA

Stable Video 4D de Stability Propulse l’Immersion

Stable Video 4D 2 0 One Shot 4D Génération - Actualités et podcast proposés par Apcl
Stable Video 4D 2 0 One Shot 4D Génération - Actualités et podcast proposés par Apcl
Actus IA avec Apcl
Stable Video 4D de Stability Propulse l’Immersion
Loading
/
Consultez toutes les autres

Publiée le 20 mai 2025, la nouvelle version améliore la 3D-attention :

Au lieu de traiter chaque image indépendamment, le réseau apprend des liens spatio-temporels profonds, alignant textures et géométries image après image.

Résultat :

Un mesh 4D (forme + mouvement) plus net, sans « shimmer » ni artefacts de ré-texturage, même sur des vidéos courtes filmées au smartphone.

L’époque où il fallait capturer un sujet sous dix angles est révolue. L’algorithme ingère une vidéo objet-centrée de quelques secondes et reconstruit :

  1. Nuage de points densifié à partir des vues successives.
  2. Surface cohérente via un réseau SDF animé.
  3. Textures temporelles régularisées pour chaque frame.

Au final, on obtient un modèle animé, prêt à être exporté vers Unreal, Blender ou WebGL, idéal pour la réalité mixte, le jeu vidéo ou la pub immersive.

Sur LPIPS (finesse visuelle) comme sur les métriques vidéo FVD-V/FVD-F et la nouvelle FV4D, SV4D 2.0 occupe la première place devant DreamGaussian4D.

Les tests internes montrent jusqu’à -25 % de distance perceptuelle et un ** -18 %** de fuite de mouvement entre frames.

Concrètement, les surfaces respirent moins, les ombres collent mieux à la géométrie et le motion blur reste naturel.

Stability AI publie le code et les poids sur GitHub et Hugging Face sous sa licence Community — usage commercial libre tant que le modèle de base est crédité. Cette ouverture accélère :

  • Recherche académique : équipes VFX peuvent forker et tester de nouvelles pertes.
  • Start-ups : monétiser rapidement des catalogues de personnages 4D.
  • Indés : créer des filtres TikTok volumétriques sans craindre les droits.

Stable Video 4D 2.0 complète la panoplie :

OutilFonctionDisponibilité
Virtual CameraPromenade libre dans une scène 4DAlpha
SPAR3DReconstruction objets indoorBeta
Stable Video 4D 2.0Génération 4D en un clicGA

Cette cohérence donne aux studios une chaîne de production entièrement open-source, de la capture à l’édition.

En parallèle, Stability annonce un partenariat Arm pour optimiser Stable Audio Open Small sur GPU mobiles :

Mixage procédural de musique et paysages sonores qui pourront se synchroniser avec les vidéos 4D.

L’ambition est claire : fournir un kit complet, décentralisé et léger pour créer des expériences XR sur casque autonome ou smartphone.

  1. Cloner le dépôt stable-video-4d-2.0 sur GitHub.
  2. Lancer le notebook quick_start.ipynb : indiquez simplement le chemin de votre clip.
  3. Exporter le mesh + textures au format glTF ou USDZ.
  4. Importer dans votre moteur 3D et ajuster l’éclairage ; la cohérence temporelle évite la retouche frame par frame.

Stable Video 4D 2.0 pousse la génération 3D/4D dans le domaine du « one-shot » :

Capturer, reconstruire, animer – tout depuis une unique vidéo.

Entre benchmarks dominés, licence ouverte et ambitions mobiles, Stability AI confirme son passage du texte vers un écosystème multimodal complet.

Pour les créateurs XR, les équipes VFX ou les game designers, la porte d’entrée vers la volumétrie accessible vient de s’ouvrir en grand.