L’outil MetaHuman Animator d’Epic Games permet aux utilisateurs du moteur Unreal Engine de faire de la performance capture rapidement et intuitivement grâce à un iPhone et un PC.
La semaine dernière, Epic Games a lancé son nouvel outil baptisé MetaHuman Animator. Ce dernier est conçu pour capturer la performance faciale d’un acteur à l’aide d’un appareil aussi simple qu’un iPhone et de l’appliquer sur PC à une marionnette numérique photoréaliste, appelée MetaHuman, dans le moteur Unreal Engine en seulement « quelques minutes ».
MetaHuman Animator : des animations faciales haute-fidélité en seulement quelques clics
MetaHuman Animator avait été dévoilée en détail lors de l’évènement State of Unreal d’Epic Games, en marge de la Game Developers Conference 2023 en mars dernier, avec une démonstration en temps réel assez impressionnante.
(Démo de MetaHuman Animator – State of Unreal 2023)
Cette fonctionnalité est désormais disponible à l’essai pour les développeurs sur le portail du moteur Unreal Engine. Epic Games a également publié une nouvelle vidéo produite par ses équipes internes pour montrer ce dont MetaHuman Animator est capable.
Si les différentes démos publiées par Epic Games présentent des animations faciales d’une subtilité impressionnante, le principal avantage mis en avant par la société est la rapidité avec laquelle MetaHuman Animator produit des résultats photoréalistes en seulement « quelques minutes ». Ce nouvel outil pourrait non seulement permettre à un studio d’économiser de l’argent en rendant le processus de performance capture plus fluide, mais également d’expérimenter et d’être plus créatif.
Epic Games indique dans une publication sur son blog : « Vous souhaitez qu’un acteur vous donne plus, essayer une émotion différente ou simplement explorer une nouvelle direction ? Faites-lui faire une nouvelle prise. Les résultats seront prêts le temps de préparer un café ». L’animation faciale peut être appliquée à un personnage MetaHuman « en quelques clics » et l’outil est même assez intelligent pour animer la langue de cette marionnette numérique en fonction de l’audio de la performance.
La performance capture à l’aide d’un iPhone est possible dans le moteur Unreal Engine depuis le lancement de l’application Live Link Face pour iOS en 2020, mais elle est désormais associée au niveau de détail élevé promis par la technologie MetaHuman d’Epic Games. En plus de fonctionner sur un iPhone 12 (ou les modèles ultérieurs), qui est capable de capturer à la fois la vidéo et les données de profondeur, la société indique que MetaHuman Animator peut également être utilisé avec « les systèmes de caméras verticales stéréo montées sur la tête pour atteindre une fidélité encore plus grande ».
L’équipe 3Lateral d’Epic Games a réalisé un court-métrage intitulé Blue Dot (voir ci-dessous) animé quasi intégralement avec ces nouveaux outils et le résultat est pour le moins bluffant. Le film met en scène l’acteur franco-serbe Radivoje Bukvić livrant un monologue basé sur un poème de Mika Antic. Epic Games affirme que seulement des « interventions minimales » ont été effectuées dans MetaHuman Animator, en plus de la performance capture, afin d’obtenir ce résultat.