注意:當我開始學習Pytorch時,我在這個項目中重新實現了更快的RCNN。然後,我在所有項目中都使用Pytorch。我仍然記得我花了一周的時間來弄清楚如何將CUDA代碼構建為Pytorch層:)。但是實際上,這不是一個很好的實現,我沒有獲得與原始CAFFE代碼相同的地圖。
該項目不再維護,並且可能與最新的Pytorch不兼容(0.4.0之後)。所以我建議:
這是更快的RCNN的Pytorch實現。該項目主要基於py-faster-rcnn和tffrcnn。
有關R-CNN的詳細信息,請參考更快的R-CNN紙張:通過Shaoqing Ren,Kaiming He,Ross Girshick,Jian Sun的Shaoqing Ren進行實時對象檢測。
安裝要求(您可以使用PIP或ANACONDA):
conda install pip pyyaml sympy h5py cython numpy scipy
conda install -c menpo opencv3
pip install easydict
克隆更快的R-CNN存儲庫
git clone [email protected]:longcw/faster_rcnn_pytorch.git構建NMS和ROI_Pooling層的Cython模塊
cd faster_rcnn_pytorch/faster_rcnn
./make.sh下載訓練有素的模型vggnet_fast_rcnn_iter_70000.h5(更新)並在demo.py中設置模型路徑
運行演示python demo.py
關注此項目(TFFRCNN)下載並準備培訓,驗證,測試數據和ImageNet預先訓練的VGG16模型。
由於該程序將數據加載到faster_rcnn_pytorch/data默認情況下,因此您可以將數據路徑設置為如下。
cd faster_rcnn_pytorch
mkdir data
cd data
ln -s $VOCdevkit VOCdevkit2007然後,您可以在train.py和.yml文件中的培訓參數中設置一些超參數。
現在,我在VOC07上獲得了0.661的地圖,而原始紙獲得了0.699的地圖。您可能需要調整在faster_rcnn/faster_rcnn.py中定義的損失函數。
借助蠟筆,我們可以訪問張量板的可視化功率,以實現任何深度學習框架。
要使用Tensorboard,請安裝蠟筆(https://github.com/torrvision/crayon),然後在faster_rcnn/train.py中設置use_tensorboard = True 。
在test.py中設置訓練有素的模型的路徑。
cd faster_rcnn_pytorch
mkdir output
python test.py許可證:麻省理工學院許可證(麻省理工學院)