Métahuman animator : de la performance capture avec un simple iphone
Epic Games dévoile MetaHuman Animator, une nouvelle fonctionnalité pour son système d’humains numériques MetaHumans. Elle va permettre d’animer le visage de vos personnages virtuels par performance capture, avec un simple iPhone.
Avant de passer aux détails techniques, voici un aperçu de ce que donnera ce système :Epic Games dévoile MetaHuman Animator, une nouvelle fonctionnalité pour son système d’humains numériques MetaHumans. Elle va permettre d’animer le visage de vos personnages virtuels par performance capture, avec un simple iPhone.
Avant de passer aux détails techniques, voici un aperçu de ce que donnera ce système :
En pratique, vous pourrez utiliser un iPhone monté sur trépied ou un casque de performance capture (il devra être doté de deux caméras l’une au-dessus de l’autre, comme ceux de Technoprops) pour capturer la performance d’une personne. L’outil se chargera ensuite de transférer les expressions et mouvements vers le MetaHuman, qui sera donc utilisable sous Unreal Engine.
Exemple de HMC développé par Technoprops, la division matériel d’ILM. Deux caméras l’une au-dessus de l’autre permettent de capturer deux angles différents du visage, et donc d’avoir la profondeur.
Epic Games explique cibler un large public, des jeux vidéo AAA et projets cinéma aux simples passionnés, en passant par les studios indépendants.
En coulisses, le système s’appuie en partie sur la technologie Mesh to MetaHuman, qui permet de générer un MetaHuman à partir d’un scan 3D de visage. Ici, quelques images capturées permettront tout d’abord de créer un MetaHuman calqué sur l’actrice ou acteur : une doublure numérique fidèle mais qui disposera de la même topologie et du même squelette qu’un MetaHuman standard.
Ce double permettra à MetaHuman Animator de transposer la performance, mais aussi de vérifier la qualité du processus, en comparant l’image filmée à l’animation générée. On pourra la visionner image par image. A ce stade, il sera aussi possible de faire des ajustements de performance, de modifier manuellement l’animation.
Une fois cette étape passée, votre performance sera alors transposable sur n’importe quel MetaHuman, puisque la topologie et le rig restent identiques.
Notez enfin que le système gère les timecodes, et que cette animation pourra donc être recalée sur un enregistrement audio ou de la motion capture du reste du corps. MetaHuman Animator pourra même utiliser l’audio pour animer la langue du personnage.
MetaHuman Animator fera partie du plug-in MetaHuman pour l’Unreal Engine, et sera donc en téléchargement gratuit. Sous iPhone, il vous faudra installer l’application gratuite Live Link Face pour iOS.
Un support Android n’est pas à l’ordre du jour.
Aucune date de lancement n’est donnée pour le moment, Epic se contentant d’un « bientôt ». Nous vous tiendrons évidemment informés du lancement : n’oubliez pas de nous suivre sur Youtube, Instagram, Facebook, LinkedIn. pour ne pas manquer nos prochains contenus !