Nous sommes aujourd'hui familiers de la technologie de capture de mouvement ou motion capture, utilisée au cinéma ou dans l'industrie vidéoludique ; des points blancs (ou capteurs) posés sur le visage et le corps de l'acteur sont ensuite mappés sur un modèle généré par ordinateur, ce qui permet de reconstituer ses mouvements. Appliquée exclusivement au visage, cette technologie permettant de capter cette fois les expressions faciales est aussi appelée face tracking.

Face tracking en temps réel, studio Nobumichi Asai, Japon

Une maquette informatique est "skinnée" afin d'être posée sur le visage réel. C'est un moyen d'animer des modèles informatiques de façon réaliste, et cette méthode se perfectionne avec le temps.

Mais cette fois, dans cette vidéo intitulée OMOTE et réalisée par le studio japonais Nobumichi Asai, plutôt que de cartographier les données de capture de mouvement sur un seul modèle généré par ordinateur, les images ont été projetées, en temps réel, sur le visage de l'acteur.

L'ordinateur "reconnaît" la forme et la position du visage à partir des données de capture de mouvement, et peut donc modifier les images projetées comme les changements de position de l'acteur.

Pour que cela fonctionne, tout doit être aligné avec précision, ce qui n'est pas simple à mettre en place. Mais les résultats sont étonnants, comme vous pouvez le voir ci-dessous :

Source : Nobumichi Asai


Contact Vie privée, Cookies Conditions Générales d'Utilisation