Accueil / À propos / Archives / 2012 / Conférences 2012 / Synthèses des conférences 2012

  Synthèses des conférences 2012

Prêt-à-porter, soins du visage et des cheveux | Conférence Prêt à porter, soin du visage et des cheveux, Annecy 2012 © D. Bouchet/CITIA

Prêt-à-porter, soins du visage et des cheveux

  1. Intervenants
  2. Modérateur
  3. Syflex et Embodee : la simulation de vêtements tendance
  4. Doublures numériques : vers des stars 100 % numériques ?
  5. Neomis et BeeLIGHT : créateurs de perruques numériques

Sommaire

Le photoréalisme n'est pas cantonné au seul secteur du divertissement. De plus en plus de secteurs s'appuyant sur l'image numérique – et la représentation de l'humain – cherchent à s'adjoindre des compétences leur permettant de pousser plus avant la création de vêtements, cheveux ou visages. Syflex, basée aux États-Unis, a mis au point un logiciel à l'origine prévu pour la simulation de vêtements dans l'animation et a ouvert en 2010 une entité pour collaborer avec des fabricants de vêtements pour les aider dans leur business en ligne. ADN a choisi de développer un ensemble de services techniques et juridiques pour créer et encadrer l'utilisation de doublures numériques non plus seulement pour des cascades, mais aussi pour des plans serrés. Basée sur une triple acquisition de données, la captation fournit un double du visage de la personnalité qui pourra le gérer de bout en bout, en totale maîtrise. Le cheveu est également un élément difficile à animer correctement, ou alors cela nécessite des outils complexes et une approche orientée développeur. À partir de travaux de l'Inria Grenoble, Neomis Animation propose un plug-in Maya qui permet de créer facilement des chevelures dynamiques incluant de nombreux paramètres pour un rendu réaliste ou cartoon.

Intervenants :

Modérateur :

Mots clés

Syflex, vêtements, simulation, ADN, doublures numériques, protection juridique, Neomis, superhélices, cheveux, perruques, photoréalisme 

Tendre vers le photoréalisme n'est pas un objectif cantonné au seul secteur du divertissement. De plus en plus de secteurs s'appuyant sur l'image numérique – et la représentation de l'humain – cherchent à s'adjoindre des compétences leur permettant de pousser plus avant la création de vêtements, cheveux ou visages.

Syflex et Embodee : la simulation de vêtements tendance

Ainsi, la société Syflex a été fondée en 2002 aux États-Unis par Gérard Banel qui introduit le sujet de la simulation de vêtements par un bref historique : c'est en 1997 que les premiers vêtements "convaincants" apparaissent à l'écran, dans le court métrage Geri's Game de Pixar.

 

Rapidement, le monde de la mode s'empare de cette nouvelle opportunité et 1998 est marquée par le défilé de mode virtuel de Thierry Mugler. Ce sera avec le long métrage adapté du jeu vidéo Final Fantasy qu'une nouvelle étape sera franchie.

"Jusqu'alors, on réalisait l'animation de vêtements de façon manuelle, rappelle Gérard Banel. Mais c'était tout bonnement impossible pour un projet de cette envergure et, donc, pour la première fois, la production s'est tournée vers la recherche et développement (R&D) pour parvenir à un traitement des vêtements photoréaliste, en accord avec le graphisme des personnages."

Final Fantasy © Square Pictures, Chris Lee Productions


Doté d'un budget conséquent, le département R&D, sous la supervision de Gérard Banel, s'est dans un premier temps concentré sur les t-shirts pour générer des animations automatiques de ceux-ci, en fonction des mouvements des personnages qui les portent. "Au vu des résultats, nous nous sommes attachés à élargir notre palette aux autres pièces de vêtements." L'objectif était alors double : à la fois améliorer le réalisme d'un élément graphique souvent en décalage avec la fluidité de mouvement des personnages, mais aussi simplifier l'animation par des simulations automatisées. Résultat : les travaux en R&D de Square, producteur du film, permettent d'obtenir plus d'une scène calculée par animateur et par jour ! Malheureusement, non seulement le film ne rencontre pas son public mais en outre, il n'est quasiment fait mention nulle part de cette avancée technologique. Square tentera bien de renouveler l'expérience avec Animatrix, film d'animation décliné de la trilogie des frères Wachowski, mais finira par fermer ses portes.

Fort de son expertise, Gérard Banel a donc créé Syflex en 2002, avec une technologie améliorée et un nouvel algorithme de rendu. Le logiciel ne nécessite pas de connaissances approfondies, ce qui lui a permis d'être rapidement adopté non seulement dans le domaine de l'animation, mais aussi dans celui du jeu vidéo (pour les cinématiques), ou encore dans la publicité.

Concrètement, le logiciel de Syflex est basé sur un système de particules avec des sortes de ressorts les liant entre elles ; ce sont ces ressorts, aux paramètres multiples et aux propriétés différentes, qui permettent de jouer sur les propriétés physiques d'un tissu, ses dynamiques associées et en corrélation avec les mouvements des personnages les portant. "Les propriétés sont similaires aux tissus physiques, explique le fondateur de Syflex, sur lesquelles on applique des contraintes – forces, frictions, etc. On établit ensuite des collisions, avec le corps par exemple, mais aussi des "self-collisions" (collisions du vêtement avec lui-même), pour obtenir, via un calcul en temps réel, une animation réaliste. Au-delà du seul vêtement, le logiciel gère également les cheveux mais aussi la peau (via un système double couche où la peau "glisse" sur une autre peau intérieure) et les muscles (avec l'adjonction d'une troisième couche)."

Le logiciel intègre également la capacité d'ajouter des proxies (boutons, nœuds…) qui viennent se greffer sur le modèle et la simulation générée.

En 2010, la société souhaite s'ouvrir à d'autres domaines d'utilisation et se rapproche de l'industrie du vêtement. La vente en ligne connaît un réel essor, mais un problème de poids demeure : les retours de vêtements suite à un essayage décevant. Syflex ouvre donc une nouvelle société, Embodee, avec pour premier client Hurley. L'objectif est de permettre aux clients en ligne d'essayer virtuellement leur achat en créant une copie conforme de leurs mensurations, à partir d'un mannequin générique auquel on alloue des paramètres de poids, taille, tour de hanches, poitrine, etc. Outre cette visualisation, le logiciel propose une map dite de confort, sous forme de taches colorées, signalant les hypothèses de serrage de la pièce contre le corps (avec les contraintes éventuelles). "Rapidement, non seulement les ventes ont progressé mais, surtout, le taux de retour a diminué de 30 %." Aujourd'hui, Embodee compte également Nike au nombre de ses références.

À terme, les améliorations autour de cette technologie vont concerner la vitesse de simulation pour tendre vers le temps réel, mais aussi la modélisation. "Nous avons trois approches en perspective : avec des patrons, la modélisation directe en 3D et directement sur le mannequin." Gérard Banel souligne que plusieurs studios, dont Disney, ont engagé des "patronnistes" pour réaliser de vrais modèles de vêtements, selon les règles de la mode et du design, pour les vêtements de leurs prochaines productions. Avec de tels outils, on assiste donc à l'émergence de nouveaux métiers, toujours plus pointus.

Doublures numériques : vers des stars 100 % numériques ?

Agence de Doublures Numériques (ADN) a été créée en 2010 par Christian Guillon, pionnier des effets visuels et Cédric Guiard, ingénieur en génie logiciel et en intelligence artificielle, docteur en mathématiques et informatique, sur la base du constat suivant : avec les progrès des techniques d'analyse et de synthèse d'images par ordinateur, la reproduction 3D indiscernable de personnalités en gros plan est aujourd'hui à portée de main. Pour l'instant, cela demeure l'apanage des gros studios à cause des coûts induits ; les films comme Matrix, La Légende de Beowulf, L'Étrange Histoire de Benjamin Button en sont les exemples. Dans le dernier cas, le studio Digital Domain a réalisé pas moins de 21 représentations de Brad Pitt, à raison de 1 MUS$ par représentation. Mais la reproduction pourrait être prochainement plus ouverte.

 

Avatar © 20th Century Fox

Cédric Guiard pointe également une évolution entre doublures de performance (comme le personnage de Sigourney Weaver en Nävis pour Avatar) et doublures d'apparence (John Lennon ou Marilyn Monroe pour de récentes publicités). Et une absence manifeste d'encadrement juridique.



ADN propose une extension de ce principe de doublure dans un environnement technologique propriétaire et ouvert (pour une utilisation pérenne, générique et interopérable) et un cadre normatif offrant à la personnalité numérisée d'avoir la mainmise sur sa doublure et les utilisations de celle-ci, qu'il s'agisse du cinéma, de la publicité ou du jeu vidéo.

Le processus se déroule en trois grandes phases que sont : l'établissement d'un modèle validé par l'acteur et protégé par un contrat (création), la mise en œuvre et l'animation (implémentation) et son intégration en postproduction (intégration).

Le versant technologique de cette captation part d'une image de référence, choisie par la personnalité et qui servira tout au long du processus de captation. "On commence par une captation en lumière structurée, soit la projection d'une trame de lumière sur le visage, et ce sont les déformations de cette trame qui donnent la profondeur (le Z) qui est ensuite appliquée sur un modèle générique. La captation est faite de façon statique puis dynamique, dans la mesure où il est demandé à la personnalité scannée de réaliser tout le spectre de physèmes, soit l'équivalent physique des phonèmes et que l'on peut résumer par les attitudes faciales les plus représentatives, pour obtenir un ensemble de 104 degrés de liberté (et donc de jeu d'expressions)."

Sont ensuite intégrées des informations concernant la lumière diffuse, la lumière spéculaire, le displacement mapping, le subsurface scattering (ou capacité d'absorption et de réflexion d'une quantité définie de lumière sur une peau)...

Enfin, la dernière acquisition de données concerne la reconstruction oculaire d'une part, l'intérieur de la bouche d'autre part. "Ces trois phases d'acquisition n'excèdent pas deux heures, précise Cédric Guiard. Ensuite, nous analysons de façon incrémentale ces données pour obtenir un modèle validé par l'acteur." L'obtention du modèle génère, sur une période de 8 à 10 semaines, un fichier numérique de l'ordre de 30 Go. ADN réalise ensuite une série de performance captures pour capturer la dynamique via des marqueurs placés sur le visage, "mais on ne plaque pas l'animation ; on se base sur la référence que l'on a du visage".

Dernière étape du processus : la livraison du modèle au studio de postproduction à fins d'utilisation.

Si le cinéma est le domaine premier d'utilisation de la technologie, ADN inscrit son action dans une utilisation tous azimuts. Récemment, le studio Mikros Image, associé à la démarche, a utilisé l'image de Marilyn Monroe pour le spot Dior J'adore avec un triple travail de recherche de boucles vidéo, d'une référence peau (d'une actrice, conforme à celle de Monroe) et d'un acteur pour le jeu.

Le coût moyen d'une acquisition est de l'ordre de 100 à 120 000 €. Une fois le modèle établi, une tarification calculée en fonction de l'utilisation et de l'exposition oscille entre 1 K€ par seconde sur des plans serrés à 20 K€ par minute sur des cinématiques de jeu vidéo.

Neomis et BeeLIGHT : créateurs de perruques numériques

En animation, le cheveu reste un point difficile à simuler de façon convaincante, sachant qu'une tête peut en comporter jusqu'à 150 000 ! C'est en 2006 que Bruno Gaumetou, fondateur du studio d'animation Neomis, et confronté à un tel enjeu, se rapproche de l'Inria Grenoble qui travaille alors sur un algorithme basé sur les superhélices, soit une ligne mathématique qui prend la forme des cheveux. Ces études avaient alors pour base les travaux du groupe L'Oréal, spécialiste en la matière. Le projet Cheveux 2008-2011 a ensuite été soutenu par l'Agence nationale de la recherche (ANR), en partenariat avec CNRS-IJLRA, Inria-Grenoble, BeeLIGHT.

Dans le cadre d'un transfert technologique, Neomis a intégré le domaine de la recherche mais sous un angle plus pratique : la génération de perruques numériques pour des projets d'animation. Même s'il existe déjà des outils disponibles sur le marché, comme Shave & Haircut, Autodesk Maya Hair, ZBrush ou les outils propriétaires de Disney ou Weta, l'approche de Neomis se veut plus intuitive, artistique, avec un logiciel simple à configurer, aux coûts limités, utilisable à la fois en cartoon et en animation réaliste.

Le plug-in Maya qui en découle (avec Mental Ray en renderer final) s'appuie donc sur les superhélices avec trois étapes-clés : la création de la coiffure, sa mise en mouvement et son rendu couleur, lumière. "On part d'une mèche unique à laquelle on adjoint des paramètres de torsion, densité, etc. Puis avec une map d'implantation, la chevelure est intégrée. Des outils coupe de cheveux (ciseaux, peigne, dégradé) et réglage de la dynamique (cache d'animation, damping) permettent d'obtenir une courbe dynamique pour, ensuite, passer en phase de baking (contrôle avec la dynamique "figée"). L'infographiste dispose ensuite de données dont il peut aisément manipuler les courbes dans un logiciel 3D avant le rendu final."

Doté d'une interface claire en trois parties (à gauche la superhélice, au centre la visualisation de la mèche et à droite les paramètres de réglage comme le typage ethnique et plus largement les données d'hélipticité), le plug-in fonctionne d'abord sur un cheveu unique. Une fois le test validé, "le processus est étendu sur un groupe de 20 qui seront les cheveux maîtres de la chevelure, résume Bruno Gaumetou. Nous pouvons ainsi fournir les images calculées, avec les couleurs, prêtes pour le compositing." Les chevelures ainsi créées offrent, outre une fonction de typage ethnique, des paramètres de simulation de tombés (sur les épaules par exemple) soit huileux (quand le tombé est fluide), soit secs (quand le tombé est plus abrupt).

Neomis dispose d'une licence exclusive d'exploitation de ce plug-in qui en est à sa version 1, ce qui fait dire à son fondateur que "l'Inria a naturellement poursuivi ses travaux, notamment sur les frictions ou les autocollisions et qu'il va falloir intégrer ces contraintes dans les mois qui viennent". Plusieurs studios nationaux et internationaux ont déjà montré leur intérêt pour ce plug-in qui offre l'avantage d'une grande souplesse et d'une intégration rapide dans les flux de production existants.

En réponse à la question de la disponibilité de licences Étudiants de Syflex, Gérard Banel explique qu'elles existent, à 10 % du prix facial, mais que "les écoles peuvent également s'équiper d'une licence flottante si besoin".

 

En réponse à la question de la réalisation de passerelles entre les technologies présentées, Cédric Guiard et Bruno Gaumetou répondent qu'"il y a des discussions autour de projets communs basés sur les deux technologies, comme l'adaptation d'une perruque sur un modèle".

 

En réponse à la question de la pertinence de l'approche d'ADN dans d'autres secteurs du divertissement, Cédric Guiard pointe que "6 000 athlètes mènent actuellement une procédure contre l'éditeur de jeux Electronic Arts pour des questions de droit à l'image : le niveau de photoréalisme ayant fortement augmenté, ils sont désormais insatisfaits de la qualité de leurs représentations".



Rédigé par Stéphane Malagnac, Prop'Ose, France
Conférences organisées par CITIA
sous la responsabilité éditoriale de René Broca et Christian Jacquemart

Contact : christellerony@citia.org

 Retour