Modele de flamme

Apprendre un modèle de forme faciale et d`expression à partir des scans 4D ce CodeBase montre comment charger et jouer avec FLAME, un modèle de visage générique léger et expressif à présenter dans: le champ de la modélisation de visage 3D a un grand écart entre haut de gamme et bas de gamme Méthodes. Au haut de gamme, la meilleure animation faciale est indistinguishablefrom vrais humains, mais cela vient au coût d`un travail manuel extensif. Au bas de l`extrémité, la capture de visage des capteurs de profondeur de consommateur repose sur des modèles de visage 3D qui ne sont pas assez expressifs pour capturer la variabilité dans la forme et l`expression faciales naturelles. Nous cherchons un terrain intermédiaire en apprenant un modèle facial à partir de milliers de scans 3D alignés avec précision. Notre modèle FLAME (faces apprises avec un modèle articulé et des expressions) est conçu pour fonctionner avec les logiciels graphiques existants et être facile à adapter aux données. FLAME utilise un espace de forme linéaire formé à partir de 3800 scans de têtes humaines. FLAME combine cet espace de forme linéaire avec une mâchoire articulée, un cou et des globes oculaires, des formes de blendures correctrices dépendantes de la posture et des formes d`expression globales supplémentaires. Les articulations dépendantes de la pose et de l`expression sont apprises à partir des séquences de faces 4D dans le jeu de données D3DFACS, ainsi que des séquences 4D supplémentaires. Nous enregistrons avec précision un maillage de modèle dans les séquences d`analyse et mettons les inscriptions D3DFACS à la disposition des chercheurs. Au total, le modèle est formé à partir de plus de 33 000 scans.

FLAME est de faible dimension mais plus expressif que le modèle FaceWarehouse et le modèle Basel face. Nous comparons FLAME à ces modèles en les adaptant aux scans 3D statiques et aux séquences 4D en utilisant la même méthode d`optimisation. FLAME est nettement plus précis et est disponible à des fins de recherche. Tianye Li *, Timo Bolkart *, Michael J. Black, Hao Li, et Javier Romero, apprenant un modèle de forme faciale et d`expression à partir de 4D scans, ACM Transactions on Graphics (proc. SIGGRAPH Asia) 2017 pour demander le modèle de flamme et les inscriptions, veuillez consulter la page du projet Gratuit à des fins de recherche non commerciale et scientifique. En utilisant ce code, vous reconnaissez avoir lu les termes et conditions (http://flame.is.tue.mpg.de/data_license), les comprendre et accepter d`être lié par eux. Si vous n`êtes pas d`accord avec ces termes et conditions, vous ne devez pas utiliser le code. Vous acceptez également de citer le document FLAME lors de la déclaration des résultats avec ce modèle. Les auteurs souhaitent exprimer leur gratitude à la société brésilienne du pétrole — PETROBRAS, l`Agence nationale du pétrole, du gaz naturel et des biocarburants du Brésil (ANP) et le Conseil national de développement scientifique et technologique du Brésil (CNPq) pour leur soutien au développement de ce travail. 2018 novembre, Volume 54, numéro 6, pp 1505 – 1532 | Cite comme Voici les extraits BibTeX pour citer FLAME dans votre travail.

Ce code utilise Python 2,7 et nécessite les dépendances suivantes: voir hello_world. py et facefit_lmk3d. py pour les démos. . Mettez à jour la variable d`environnement PYTHONPATH afin que le système sache comment trouver le code SMPL. Ajoutez les lignes suivantes à votre fichier ~/.bash_profile (créez-le s`il n`existe pas; Les utilisateurs Linux peuvent avoir le fichier ~/.bashrc à la place), définir l`emplacement où vous clonez le projet. Springer nature reste neutre en ce qui concerne les revendications de compétence dans les cartes publiées et les affiliations institutionnelles. Ce Repo est maintenu par tianye Li.

Les codes dans smpl_webuser sont directement du code python de SMPL..