Actualités

Cyberpunk 2077 : animation faciale et labiale présentée avant l’heure par Jali Research Inc. ! (et pas trop de blabla…)

Alors que l’impatience est à son comble concernant le déploiement prochain du jeu vidéo (d’ici le 19 Novembre 2020, soit dans un peu moins d’un mois !…), le studio CD Projekt RED tente de faire patienter la meute avec un zoom sur un aspect technique : celui des animations ou expressions faciales impulsées virtuellement sur les futurs personnages de Cyberpunk 2077. Pour en parler, c’est l’entreprise Jali Research Inc. qui s’y colle !

 

 

C’est lors d’un évènement en vidéo, diffusé le 19 Octobre dernier, que différents acteurs et chercheurs liés à l’entreprise se sont épancher plus en avant sur l’animation-vidéo : sempiternellement donné à titre comparatif, The Witcher 3 aura été un amuse-bouche comparé au futur jeu du studio polonais. La synchronisation sera améliorée pour éviter les fameux lags entre les propos et l’animation de la bouche par exemple mais, par contre, le choix de la MC (motion-capture) n’a pas été opéré : il s’agit d’une technologie utilisée au cinéma (dans des films comme Le Hobbit ou Le Seigneur des Anneaux pour le personnage de Gollum, interprété par Andy Serkis) et assez précieuse pour restituer, trait pour trait, différentes émotions, sous couverts d’un traitement graphique 3D, entre-autres.

 

Exit la motion capture donc (dommage !) avec, derrière, de vrais acteurs (certains jeux vidéos Star Wars bénéficiait de la technologie) et plus de 10 langues (X-Sampa) traduites (Japonais, Russe, Français, Anglais (CMUDict), Polonais, Allemand, Portugais-Brésilien, Espagnol et Italien) seront intégrées dans le jeu. Le vocabulaire transcrit en programmation repose sur le G2P (Grapheme-to-Phoneme) avec une prédiction des mots de vocabulaire qui ne sont pas initialement intégrés (Out-of-Vocabulary ou OOV) au programme mais qui, pourtant, apparaissent. Enfin, le tague relatif aux dialectes (langues) se fait par l’entremise du XML.

Passé ce choix assumé – et qui, gageons, sera payant en évitant les rendus parfois surréaliste, comme certaines cinématiques de Star Wars Fallen Order avec des yeux qui semble sur le point de sortir de leur orbite – grâce à la technologie de l’entreprise qui pourra, quand même, retranscrire la palette d’émotions à travers les yeux, le discours, les sourcils ou encore le cou. Le rendu visuel, tout comme les images déversées en flot par le studio lors des dernières Night City Wire, est attractif mais, en animation, il faudra voir comment cela se traduira.

 

Le fonctionnement d’une synchronisation animation-personnage se fait en trois phases principales : le texte vocal et tout ce qui gravite autour (bruitages, par exemple), le traitement par intelligence artificielle et une étape de traitement final pour adapter la tonalité ou le texte au personnage qui va le prononcer, tout en appliquant une synchronisation sur la bouche dudit personnage. Pour rassurer les futurs aficionados, courbe à l’appui, la synchronisation sera le fer de lance de cette stratégie axée autour de l’IA. A la manière d’un égalisateur personnalisé – dans les grandes lignes – suivant le personnage, la courbe et la formulation des mots sera affiné. Tout se fera sous la coupe d’un traitement logiciel. Le vice est poussé ou affiné jusque dans le phonème : pour chaque personnage du jeu, cette variable pourra être personnalisé presque à l’infini, ce qui peut donner une palette de prononciation orale assez varié, en inventant tout un dialecte. L’ensemble s’articule littéralement (!) avec les lèvres et la mâchoire ce qui accentuerait encore plus l’impression de réalisme.

 

Les yeux, également, auront leur expressivité à part entière : les clignements seront dépendants, bien sûr, du texte émis par le personnage, dans sa mise en forme mais aussi dans sa teneur. Ces clignements se déclencheront, aussi, en fonction du dernier clignement opéré. Quand aux mouvements, l’entreprise a misé sur un “modèle statistique“. Tout ces détails donne, dans tout les cas, avec ou sans motion capture, un chemin intéressant dans le cadre de la conception d’un jeu vidéo où l’animation reste un défi herculéen de tout les jours : avoir un visuel plaisant au repos comme dans la mouvance… A suivre !

 

 

Source : Jali Research Inc. – 19 Octobre 2020 – Expression faciale et labiale du jeu Cyberpunk 2077 + gestion multi-lingue.




  • 50% J'apprécieVS
    50% Je n'apprécie pas
    Pas de commentaire

    Laisser un commentaire

    ;) :zzz: :youpi: :yes: :xmas: :wink: :whistle: :warning: :twisted: :sw: :sleep: :sg1: :schwarzy: :sarko: :sante: :rollol: :roll: :rip: :pt1cable: :popcorn: :pff: :patapai: :paf: :p :ouch: :oops: :o :non: :na: :mrgreen: :mdr: :macron: :love: :lol: :kissou: :kaola: :jesuisdehors: :jap: :ilovesos: :idea: :houra: :hello: :heink: :grumpy: :fume: :frenchy: :fouet: :fouet2: :first: :fessee: :evil: :dispute: :demon: :cryy: :cry: :cpignon: :cool: :cassepc: :capello: :calin: :bug: :boxe: :bounce: :bluesbro: :bisou: :babyyoda: :assassin: :arrow: :annif: :ange: :amen: :D :??: :?: :/ :-| :-x :-o :-P :-D :-? :-1: :+1: :) :( 8-O 8)

    Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

    Copyright © Association SOSOrdi.net 1998-2020 - v1.4.0