消息:
該存儲庫包含“ PIFU:與高分辨率服裝人體數字化的隱式函數”的Pytorch實現。
項目頁面
如果您發現該代碼在研究中有用,請考慮引用論文。
@InProceedings{saito2019pifu,
author = {Saito, Shunsuke and Huang, Zeng and Natsume, Ryota and Morishima, Shigeo and Kanazawa, Angjoo and Li, Hao},
title = {PIFu: Pixel-Aligned Implicit Function for High-Resolution Clothed Human Digitization},
booktitle = {The IEEE International Conference on Computer Vision (ICCV)},
month = {October},
year = {2019}
}
該代碼庫提供:
用於培訓和數據生成
sudo apt-get install freeglut3-dev for ubuntu用戶)apt install libgl1-mesa-dri libegl1-mesa libgbm1適用於ubuntu用戶)警告:我發現過時的NVIDIA駕駛員可能會因EGL造成錯誤。如果您想嘗試EGL版本,請更新您的NVIDIA驅動程序!
conda添加到路徑Gitbinbash.exeeval "$(conda shell.bash hook)"因此, conda activate my_env因此env create -f environment.yml (查看此)conda create —name pifu python , pifu是您環境的名稱conda activateconda install pytorch torchvision cudatoolkit=10.1 -c pytorchconda install pillowconda install scikit-imageconda install tqdmconda install -c menpo opencvGitmingw64binsh ./scripts/download_trained_model.shsh ./scripts/test.sh警告:釋放的模型經過訓練,大多數是直立的立式掃描,視角投影較弱,音高為0度。重建質量可能會降低高度偏離火車數據的圖像。
./PIFu/checkpoints/下複製它們。 sh ./scripts/download_trained_model.sh
./PIFu/eval_results/下創建一個紋理的.obj文件。您可能需要使用./apps/crop_img.py將輸入映像和相應的掩碼與訓練數據進行對齊,以提高性能。為了刪除背景,您可以使用任何現成的工具,例如RemoveBG。 sh ./scripts/test.sh
如果您沒有運行PIFU的設置,我們會提供Google COLAB版本來嘗試一下,從而可以免費在雲中運行PIFU,免費提供。使用以下筆記本嘗試我們的COLAB演示:
雖然由於限制了撰寫書籍掃描,因此我們無法發布完整的培訓數據,但我們使用RenderPeople中的免費模型提供了渲染代碼。本教程使用rp_dennis_posed_004型號。請從此鏈接下載模型,然後在名為rp_dennis_posed_004_OBJ的文件夾下解壓縮內容。相同的過程可以應用於其他RenderPeople數據。
警告:以下代碼在沒有pyembree的情況下變得非常慢。請確保安裝Pyembree。
python -m apps.prt_util -i {path_to_rp_dennis_posed_004_OBJ}
GEO , RENDER , MASK , PARAM , UV_RENDER , UV_MASK , UV_NORMAL和UV_POS文件夾。請注意,您可能需要列出驗證主題,以在{path_to_training_data}/val.txt中排除在培訓中(本教程只有一個主題,將其留為空)。如果您希望使用配備NVIDIA GPU的無頭服務器渲染圖像,請添加-e以啟用EGL渲染。 python -m apps.render_data -i {path_to_rp_dennis_posed_004_OBJ} -o {path_to_training_data} [-e]
警告:以下代碼在沒有pyembree的情況下變得非常慢。請確保安裝Pyembree。
./results results和./checkpoints下保存。您可以添加--batch_size和--num_sample_input標誌,以根據可用的GPU內存調整批處理大小和採樣點的數量。 python -m apps.train_shape --dataroot {path_to_training_data} --random_flip --random_scale --random_trans
python -m apps.train_color --dataroot {path_to_training_data} --num_sample_inout 0 --num_sample_color 5000 --sigma 0.1 --random_flip --random_scale --random_trans
單眼實時體積性能捕獲(ECCV 2020)
Ruilong Li*,Yuliang Xiu*,Shunsuke Saito,Zeng Huang,Kyle Olszewski,Hao Li
通過加速重建和渲染的第一個實時PIFU!
PIFUHD:高分辨率3D人數數字化的多級像素一致性函數(CVPR 2020)
Shunsuke Saito,Tomas Simon,Jason Saragih,Hanbyul Joo
我們通過利用多層次方法進一步提高重建的質量!
拱門:穿衣服的動畫重建(CVPR 2020)
Zeng Huang,Yuanlu Xu,Christoph Lassner,Hao Li,Tony Tung
在典型的空間中學習PIFU,以使其動畫化的化身生成!
秒內強大的3D自畫像(CVPR 2020)
Zhe Li,Tao Yu,Chuanyu Pan,Zerong Zheng,Yebin Liu
它們將PIFU擴展到RGBD +引入了使用PIFU重建進行非剛性融合的“ pifusion”。
學習在沒有3D監督的情況下推斷隱性表面(Neurips 2019)
Shichen Liu,Shunsuke Saito,Weikai Chen,Hao Li
我們回答了一個問題:“如果沒有3D地面真相,我們如何學習隱式功能?”
Siclope:剪影的服裝人(CVPR 2019,最佳紙質決賽選手)
Ryota Natsume*,Shunsuke Saito*,Zeng Huang,Weikai Chen,Chongyang MA,Hao Li,Shigeo Morishima
我們首次嘗試重建3D穿衣服的人體,並從一張圖像中質地!
來自非常稀疏的多視圖性能捕獲的深度體積視頻(ECCV 2018)
Zeng Huang,Tianye Li,Weikai Chen,Yajie Zhao,Jun Xing,Chloe Legendre,Linjie Luo,Chongyang MA,Hao Li Li
暗示表面學習的稀疏視圖捕獲人類績效捕獲!
有關商業查詢,請聯繫:
hao li:[email protected] ccto:[email protected] baker!