Pytorchautodrive是一個純的Python框架,包括基於Pytorch的語義分割模型,車道檢測模型。在這裡,我們提供了研究(模型培訓,測試,簡單地編寫配置)到應用程序(可視化,模型部署)的完整堆棧支持。
論文:通過曲線建模重新思考有效的車道檢測(CVPR 2022)
海報: Pytorchautodrive:工具包和公平駕駛研究基準(Pytorch Developer Day 2021)
該存儲庫正在積極開發中,上傳模型的結果穩定。對於舊版代碼用戶,請檢查折舊是否更改。
來自Erfnet的演示視頻:
在各種主機,基於配置的實現,調製且易於理解的代碼,圖像/關鍵點加載,轉換和可視化,混合精度訓練,Tensorboard Loggging和部署支持的各種方法上。
此存儲庫的模型訓練更快(單卡可訓練),並且與其他實施相比,其性能通常更好,請參閱Wiki,以了解模型的原因和技術規範。
| 任務 | 數據集 |
|---|---|
| 語義細分 | Pascal VOC 2012 |
| 語義細分 | 城市景觀 |
| 語義細分 | gtav* |
| 語義細分 | 合成* |
| 車道檢測 | Culane |
| 車道檢測 | 塔西姆普 |
| 車道檢測 | 美洲駝 |
| 車道檢測 | BDD100K(正在進行中) |
* UDA基線設置,將CityScapes Val設置為驗證。
| 任務 | 骨幹 | 模型/方法 |
|---|---|---|
| 語義細分 | RESNET-101 | FCN |
| 語義細分 | RESNET-101 | deeplabv2 |
| 語義細分 | RESNET-101 | DeepLabv3 |
| 語義細分 | - | enet |
| 語義細分 | - | erfnet |
| 車道檢測 | ENET,ERFNET,VGG16,重新NET(18、34、50、101),Mobilenets(V2,V3-Large),RepVGGS(A0,A1,B0,B0,B1G2,B2),Swin(tiny) | 基線 |
| 車道檢測 | ERFNET,VGG16,重新註重(18、34、50、101),repvggs(A1) | SCNN |
| 車道檢測 | 重新連接(18、34、50、101),Mobilenets(V2,V3-Large),Erfnet | Resa |
| 車道檢測 | Erfnet,Enet | 悲傷(推遲) |
| 車道檢測 | erfnet | PRNET(正在進行中) |
| 車道檢測 | 重新連接(18、34、50、101),resnet18降低 | LSTR |
| 車道檢測 | 重新分解(18,34) | 蘭特 |
| 車道檢測 | 重新分解(18,34) | BézierLanenet |
我們提供可靠的結果(平均/最佳/詳細信息),訓練時間,外殼腳本和訓練有素的模型,可在model_zoo.md中下載。
請使用install.md準備環境和代碼。然後按照DataSet.MD中的說明設置數據集。
開始使用lanedetection.md進行車道檢測。
開始使用sementation.md進行語義分割。
有關圖像和視頻輸入,請參閱可視化和推理教程的可視化和推理教程。
請參閱Benchmark.md以獲取基準測試教程,包括每個受支持模型的FPS測試,FLOPS和內存計數。
請參閱deploy.md以獲取ONNX和Tensorrt部署支持。
Checkout Advanced_tutorial.md用於高級用例以及如何在Pytorchautodrive中進行編碼。
請參閱貢獻指南的貢獻。
如果您覺得此框架在使用我們的結果時會大大幫助您的研究或需要參考,請引用以下論文,以使Pytorchautodrive正式發布:
@inproceedings{feng2022rethinking,
title={Rethinking efficient lane detection via curve modeling},
author={Feng, Zhengyang and Guo, Shaohua and Tan, Xin and Xu, Ke and Wang, Min and Ma, Lizhuang},
booktitle={Computer Vision and Pattern Recognition},
year={2022}
}
Pytorchautodrive由Zhengyang Feng(Voldemortx)和Shaohua Guo(Cedricgsh)維護。
貢獻者(GitHub ID):Kalkun,Littlejohnkhan,Francis0407,Pannenetsf,bjzhb666
贊助我們的人(例如,使用硬件):Lizhuang MA,Xin Tan,Junshu Tang(Junshutang),Fengqi Liu(Fengqiliu1221)