Nachricht:
Dieses Repository enthält eine Pytorch-Implementierung von "PIFU: Pixel-ausgerichtete implizite Funktion für hochauflösende gekleidete menschliche Digitalisierung".
Projektseite
Wenn Sie den Code für Ihre Forschung nützlich finden, sollten Sie das Papier zitieren.
@InProceedings{saito2019pifu,
author = {Saito, Shunsuke and Huang, Zeng and Natsume, Ryota and Morishima, Shigeo and Kanazawa, Angjoo and Li, Hao},
title = {PIFu: Pixel-Aligned Implicit Function for High-Resolution Clothed Human Digitization},
booktitle = {The IEEE International Conference on Computer Vision (ICCV)},
month = {October},
year = {2019}
}
Diese Codebasis enthält:
Für die Schulung und Datenerzeugung
sudo apt-get install freeglut3-dev für Ubuntu-Benutzer)apt install libgl1-mesa-dri libegl1-mesa libgbm1 für Ubuntu-Benutzer)WARNUNG: Ich fand, dass veraltete Nvidia -Treiber zu Fehlern mit EGL führen können. Wenn Sie die EGL -Version ausprobieren möchten, aktualisieren Sie bitte Ihren NVIDIA -Treiber auf die neueste!
conda zum Pfad hinzuGitbinbash.exeeval "$(conda shell.bash hook)" dann conda activate my_env deshalb aktivierenenv create -f environment.yml (schauen Sie das)conda create —name pifu python , wo pifu Name Ihrer Umgebung istconda activateconda install pytorch torchvision cudatoolkit=10.1 -c pytorchconda install pillowconda install scikit-imageconda install tqdmconda install -c menpo opencvGitmingw64binsh ./scripts/download_trained_model.shsh ./scripts/test.shWARNUNG: Das freigegebene Modell ist mit meist aufrechten stehenden Scans mit schwacher Perspektivprojektion und dem Stellwinkel von 0 Grad ausgebildet. Die Rekonstruktionsqualität kann für Bilder abbauen, die von den Trainingendaten hoch abgewichen sind.
./PIFu/checkpoints/ . sh ./scripts/download_trained_model.sh
.obj -Datei unter ./PIFu/eval_results/ . Möglicherweise müssen Sie ./apps/crop_img.py verwenden, um ein Eingabebild und die entsprechende Maske in den Trainingsdaten für eine bessere Leistung in etwa auszurichten. Für die Entfernung von Hintergrund können Sie alle Off-the-Shelf-Werkzeuge wie REMEBG verwenden. sh ./scripts/test.sh
Wenn Sie kein Setup zum Ausführen von PIFU haben, bieten wir Google Colab -Version an, um es auszuprobieren, sodass Sie Pifu kostenlos in der Cloud ausführen können. Probieren Sie unsere Colab -Demo mit dem folgenden Notizbuch aus:
Obwohl wir aufgrund der Einschränkung der Handelskans nicht die vollständigen Trainingsdaten veröffentlichen können, bieten wir Rendering -Code mit kostenlosen Modellen in Renderpeople an. In diesem Tutorial wird das Modell rp_dennis_posed_004 verwendet. Bitte laden Sie das Modell von diesem Link herunter und entpacken Sie den Inhalt unter einem Ordner mit dem Namen rp_dennis_posed_004_OBJ . Der gleiche Vorgang kann auf andere Renderpeople -Daten angewendet werden.
Warnung: Der folgende Code wird ohne Pyembree extrem langsam. Bitte stellen Sie sicher, dass Sie Pyembree installieren.
python -m apps.prt_util -i {path_to_rp_dennis_posed_004_OBJ}
GEO , RENDER , MASK , PARAM , UV_RENDER , UV_MASK , UV_NORMAL und UV_POS . Beachten Sie, dass Sie möglicherweise Validierungsfächer auflisten müssen, um das Training in {path_to_training_data}/val.txt auszuschließen (dieses Tutorial hat nur ein Thema und lässt es leer). Wenn Sie Bilder mit mit NVIDIA GPU ausgestatteten Kopffreien ausgestattet haben, fügen Sie -e hinzu, um das EGL -Rendering zu ermöglichen. python -m apps.render_data -i {path_to_rp_dennis_posed_004_OBJ} -o {path_to_training_data} [-e]
Warnung: Der folgende Code wird ohne Pyembree extrem langsam. Bitte stellen Sie sicher, dass Sie Pyembree installieren.
./results bzw. ./checkpoints gespeichert. Sie können addieren --batch_size und --num_sample_input Flags, um die Stapelgröße und die Anzahl der abgetasteten Punkte basierend auf dem verfügbaren GPU -Speicher anzupassen. python -m apps.train_shape --dataroot {path_to_training_data} --random_flip --random_scale --random_trans
python -m apps.train_color --dataroot {path_to_training_data} --num_sample_inout 0 --num_sample_color 5000 --sigma 0.1 --random_flip --random_scale --random_trans
Monokulare Echtzeitvolumetrie Leistungsaufnahme (ECCV 2020)
Ruilong Li*, Yuliang Xiu*, Shunsuke Saito, Zeng Huang, Kyle Olszewski, Hao Li
Das erste Echtzeit-Pifu durch Beschleunigung von Rekonstruktion und Rendern !!
Pifuhd: Multi-Level-Pixel-ausgerichtete implizite Funktion für hochauflösende 3D-menschliche Digitalisierung (CVPR 2020)
Shunsuke Saito, Tomas Simon, Jason Saragih, Hanbyul Joo
Wir verbessern die Qualität des Rekonstruktion weiter, indem wir einen Multi-Level-Ansatz nutzen!
Bogen: Animatable Rekonstruktion von gekleideten Menschen (CVPR 2020)
Zeng Huang, Yuanlu Xu, Christoph Lassner, Hao Li, Tony Tung
Lernen Sie Pifu im kanonischen Raum für animatierbare Avatar -Generation!
Robustes 3D-Selbstporträts in Sekunden (CVPR 2020)
Zhe Li, Tao Yu, Chuanyu Pan, Zerong Zheng, Yebin Liu
Sie erweitern PIFU auf RGBD +, die "Pifusion" einführen, unter Verwendung der PIFU-Rekonstruktion für die Nicht-Rigid-Fusion.
Lernen, implizite Oberflächen ohne 3D -Überwachung zu schließen (Neurips 2019)
Shichen Liu, Shunsuke Saito, Weikai Chen, Hao Li
Wir beantworten auf die Frage: "Wie können wir implizite Funktionen lernen, wenn wir keine 3D -Grundwahrheit haben?"
Siclope: Kleid der in Silhouette ansässigen Kleidung (CVPR 2019, Bester Papierfinalist)
Ryota Natsume*, Shunsuke Saito*, Zeng Huang, Weikai Chen, Chongyang MA, Hao Li, Shigeo Morishima
Unser erster Versuch, 3D -gekleideten menschlichen Körper mit Textur aus einem einzigen Bild zu rekonstruieren!
Tiefes volumetrisches Video aus sehr spärlicher Multi-View-Leistungsaufnahme (ECCV 2018)
Zeng Huang, Tianye Li, Weikai Chen, Yajie Zhao, Jun Xing, Chloe Legendre, Linjie Luo, Chongjang MA, Hao Li
Implizites Oberflächenlernen für spärliche Ansicht menschlicher Leistungsaufnahme!
Für kommerzielle Fragen wenden Sie sich bitte an:
Hao li: [email protected] ccto: [email protected] baker !!