Pytorchautodrive 는 순수한 Python 프레임 워크입니다. 시맨틱 세분화 모델, Pytorch 기반의 차선 탐지 모델이 포함됩니다. 여기서 우리는 연구 (모델 교육, 테스트, 단순히 구성을 작성하여 공정한 벤치마킹)에서 응용 프로그램 (시각화, 모델 배포)에 대한 전체 스택 지원을 제공합니다.
논문 : 곡선 모델링을 통한 효율적인 차선 탐지 재고 (CVPR 2022)
포스터 : Pytorchautodrive : 자율 주행 연구를위한 툴킷 및 공정한 벤치 마크 (Pytorch Developer Day 2021)
이 저장소는 활성 개발 중이며, 모델 업로드 된 결과는 안정적입니다. 레거시 코드 사용자의 경우 감가 상점을 확인하십시오.
Erfnet의 데모 비디오 :
광범위한 백본, 구성 기반 구현, 변조 및 쉽게 이해되는 코드, 이미지/키패로드, 변환 및 시각화 , 혼합 정밀 교육 , Onnx 및 Tensorrt와의 텐서 보드 로깅 및 배포 지원 에 대한 다양한 방법.
이 repo의 모델은 기차하기가 더 빠르며 ( 단일 카드 훈련 가능 ) 다른 구현보다 성능이 향상됩니다. Wiki는 이유와 기술 사양에 대해서는 Wiki를 참조하십시오.
| 일 | 데이터 세트 |
|---|---|
| 시맨틱 세분화 | 파스칼 VOC 2012 |
| 시맨틱 세분화 | 도시 스케이프 |
| 시맨틱 세분화 | gtav* |
| 시맨틱 세분화 | 합성* |
| 차선 탐지 | CULANE |
| 차선 탐지 | 엄니 |
| 차선 탐지 | 라마 |
| 차선 탐지 | BDD100K ( 진행중인 ) |
* CityScapes val 세트가있는 UDA 기준선 설정.
| 일 | 등뼈 | 모델/방법 |
|---|---|---|
| 시맨틱 세분화 | RESNET-101 | FCN |
| 시맨틱 세분화 | RESNET-101 | Deeplabv2 |
| 시맨틱 세분화 | RESNET-101 | deeplabv3 |
| 시맨틱 세분화 | - | Enet |
| 시맨틱 세분화 | - | erfnet |
| 차선 탐지 | Enet, Erfnet, VGG16, Resnets (18, 34, 50, 101), Mobilenets (V2, V3-Large), Repvggs (A0, A1, B0, B1G2, B2), Swin (Tiny) | 기준선 |
| 차선 탐지 | Erfnet, VGG16, Resnets (18, 34, 50, 101), Repvggs (A1) | SCNN |
| 차선 탐지 | RESNETS (18, 34, 50, 101), Mobilenets (V2, V3-Large), Erfnet | RESA |
| 차선 탐지 | Erfnet, Enet | 슬픈 ( 연기 ) |
| 차선 탐지 | erfnet | PRNET ( 진행중인 ) |
| 차선 탐지 | RESNETS (18, 34, 50, 101), RESNET18 감소 | LSTR |
| 차선 탐지 | 리스트 (18, 34) | laneatt |
| 차선 탐지 | 리스트 (18, 34) | Bézierlanenet |
우리는 Model_ZOO.MD에서 다운로드 할 수있는 확실한 결과 (평균/최고/상세), 교육 시간, 쉘 스크립트 및 훈련 된 모델을 제공합니다.
install.md를 사용하여 환경과 코드를 준비하십시오. 그런 다음 DataSet.md의 지침을 따라 데이터 세트를 설정하십시오.
차선 감지를 위해 Lanedetection.md로 시작하십시오.
시맨틱 세그먼트 화를 위해 Segmentation.md를 시작하십시오.
시각화 및 추론 자습서는 이미지 및 비디오 입력에 대해서는 visualization.md를 참조하십시오.
FPS 테스트, FLOPS 및 각 지원 모델에 대한 FLOPS 및 메모리 카운트를 포함한 Benchmark.MD를 참조하십시오.
Onnx 및 Tensorrt 배포 지원은 deploy.md를 참조하십시오.
checkout advanced_tutorial.md 고급 사용 사례 및 pytorchautodrive에서 코딩하는 방법.
기여 가이드는 Contributing.md를 참조하십시오.
이 프레임 워크가 실질적으로 연구에 도움이되었거나 결과를 사용할 때 참조를 원한다면 Pytorchatodrive의 공식 출시를 한 다음 논문을 인용하십시오.
@inproceedings{feng2022rethinking,
title={Rethinking efficient lane detection via curve modeling},
author={Feng, Zhengyang and Guo, Shaohua and Tan, Xin and Xu, Ke and Wang, Min and Ma, Lizhuang},
booktitle={Computer Vision and Pattern Recognition},
year={2022}
}
Pytorchautodrive는 Zhengyang Feng (Voldemortx)과 Shaohua Guo (Cedricgsh)에 의해 유지됩니다.
기고자 (Github ID) : Kalkun, Littlejohnkhan, Francis0407, Pannenetsf, BJZHB666
우리를 후원하는 사람들 (예 : 하드웨어와 함께) : Lizhuang MA, Xin Tan, Junshu Tang (Junshutang), Fengqi Liu (Fengqiliu1221)