Pytorchautodrive是一个纯的Python框架,包括基于Pytorch的语义分割模型,车道检测模型。在这里,我们提供了研究(模型培训,测试,简单地编写配置)到应用程序(可视化,模型部署)的完整堆栈支持。
论文:通过曲线建模重新思考有效的车道检测(CVPR 2022)
海报: Pytorchautodrive:工具包和公平驾驶研究基准(Pytorch Developer Day 2021)
该存储库正在积极开发中,上传模型的结果稳定。对于旧版代码用户,请检查折旧是否更改。
来自Erfnet的演示视频:
在各种主机,基于配置的实现,调制且易于理解的代码,图像/关键点加载,转换和可视化,混合精度训练,Tensorboard Loggging和部署支持的各种方法上。
此存储库的模型训练更快(单卡可训练),并且与其他实施相比,其性能通常更好,请参阅Wiki,以了解模型的原因和技术规范。
| 任务 | 数据集 |
|---|---|
| 语义细分 | Pascal VOC 2012 |
| 语义细分 | 城市景观 |
| 语义细分 | gtav* |
| 语义细分 | 合成* |
| 车道检测 | Culane |
| 车道检测 | 塔西姆普 |
| 车道检测 | 美洲驼 |
| 车道检测 | BDD100K(正在进行中) |
* UDA基线设置,将CityScapes Val设置为验证。
| 任务 | 骨干 | 模型/方法 |
|---|---|---|
| 语义细分 | RESNET-101 | FCN |
| 语义细分 | RESNET-101 | deeplabv2 |
| 语义细分 | RESNET-101 | DeepLabv3 |
| 语义细分 | - | enet |
| 语义细分 | - | erfnet |
| 车道检测 | ENET,ERFNET,VGG16,重新NET(18、34、50、101),Mobilenets(V2,V3-Large),RepVGGS(A0,A1,B0,B0,B1G2,B2),Swin(tiny) | 基线 |
| 车道检测 | ERFNET,VGG16,重新注重(18、34、50、101),repvggs(A1) | SCNN |
| 车道检测 | 重新连接(18、34、50、101),Mobilenets(V2,V3-Large),Erfnet | Resa |
| 车道检测 | Erfnet,Enet | 悲伤(推迟) |
| 车道检测 | erfnet | PRNET(正在进行中) |
| 车道检测 | 重新连接(18、34、50、101),resnet18降低 | LSTR |
| 车道检测 | 重新分解(18,34) | 兰特 |
| 车道检测 | 重新分解(18,34) | BézierLanenet |
我们提供可靠的结果(平均/最佳/详细信息),训练时间,外壳脚本和训练有素的模型,可在model_zoo.md中下载。
请使用install.md准备环境和代码。然后按照DataSet.MD中的说明设置数据集。
开始使用lanedetection.md进行车道检测。
开始使用sementation.md进行语义分割。
有关图像和视频输入,请参阅可视化和推理教程的可视化和推理教程。
请参阅Benchmark.md以获取基准测试教程,包括每个受支持模型的FPS测试,FLOPS和内存计数。
请参阅deploy.md以获取ONNX和Tensorrt部署支持。
Checkout Advanced_tutorial.md用于高级用例以及如何在Pytorchautodrive中进行编码。
请参阅贡献指南的贡献。
如果您觉得此框架在使用我们的结果时会大大帮助您的研究或需要参考,请引用以下论文,以使Pytorchautodrive正式发布:
@inproceedings{feng2022rethinking,
title={Rethinking efficient lane detection via curve modeling},
author={Feng, Zhengyang and Guo, Shaohua and Tan, Xin and Xu, Ke and Wang, Min and Ma, Lizhuang},
booktitle={Computer Vision and Pattern Recognition},
year={2022}
}
Pytorchautodrive由Zhengyang Feng(Voldemortx)和Shaohua Guo(Cedricgsh)维护。
贡献者(GitHub ID):Kalkun,Littlejohnkhan,Francis0407,Pannenetsf,bjzhb666
赞助我们的人(例如,使用硬件):Lizhuang MA,Xin Tan,Junshu Tang(Junshutang),Fengqi Liu(Fengqiliu1221)