Pytorchautodriveは、 Pytorchに基づくセマンティックセグメンテーションモデル、レーン検出モデルを含む純粋なPythonフレームワークです。ここでは、研究からアプリケーション(視覚化、モデルの展開)までの研究(モデルトレーニング、テスト、公正なベンチマーク)からフルスタックサポートを提供します。
論文:曲線モデリングを介した効率的な車線検出の再考(CVPR 2022)
ポスター: Pytorchautodrive:自律運転研究のためのツールキット&フェアベンチマーク(Pytorch Developer Day 2021)
このリポジトリはアクティブな開発中であり、アップロードされたモデルの結果は安定しています。レガシーコードユーザーの場合は、変更について非推奨を確認してください。
erfnetのデモビデオ:
幅広いバックボーン、構成ベースの実装、変調されたコードと容易に理解されたコード、画像/キーポイントの読み込み、変換と視覚化、混合精密トレーニング、テンソルボードのロギングおよび展開サポートに関するさまざまな方法。
このリポジトリのモデルは、トレーニングが高速であり(シングルカードトレーニング可能)、多くの場合、他の実装よりも優れたパフォーマンスがあります。モデルの理由と技術的仕様については、Wikiを参照してください。
| タスク | データセット |
|---|---|
| セマンティックセグメンテーション | Pascal Voc 2012 |
| セマンティックセグメンテーション | 街並み |
| セマンティックセグメンテーション | gtav* |
| セマンティックセグメンテーション | シンシア* |
| レーン検出 | culane |
| レーン検出 | tusimple |
| レーン検出 | ラマ |
| レーン検出 | BDD100K(進行中) |
* UDAベースラインセットアップ、Cityscapes Valが検証として設定されています。
| タスク | バックボーン | モデル/方法 |
|---|---|---|
| セマンティックセグメンテーション | ResNet-101 | FCN |
| セマンティックセグメンテーション | ResNet-101 | deeplabv2 |
| セマンティックセグメンテーション | ResNet-101 | deeplabv3 |
| セマンティックセグメンテーション | - | enet |
| セマンティックセグメンテーション | - | erfnet |
| レーン検出 | enet、erfnet、vgg16、resnets(18、34、50、101)、Mobilenets(V2、V3-Large)、RepVGGS(A0、A1、B0、B1G2、B2)、Swin(Tiny) | ベースライン |
| レーン検出 | erfnet、vgg16、resnets(18、34、50、101)、repvggs(a1) | scnn |
| レーン検出 | Resnets(18、34、50、101)、MobileNets(V2、V3-Large)、erfnet | resa |
| レーン検出 | erfnet、enet | 悲しい(延期) |
| レーン検出 | erfnet | PRNET(進行中) |
| レーン検出 | Resnets(18、34、50、101)、Resnet18還元 | LSTR |
| レーン検出 | resnets(18、34) | Laneatt |
| レーン検出 | resnets(18、34) | Bézierlanenet |
モデル_zoo.mdでダウンロードできる堅実な結果(平均/ベスト/詳細)、トレーニング時間、シェルスクリプト、トレーニングモデルを提供します。
install.mdを使用して環境とコードを準備してください。次に、DataSet.mdの指示に従ってデータセットをセットアップします。
レーン検出のためのlanedetection.mdを始めましょう。
セマンティックセグメンテーションのために、segmentation.mdを始めましょう。
画像とビデオの入力については、視覚化と推論のチュートリアルについては、visualization.mdを参照してください。
サポートされている各モデルのFPSテスト、フロップ、メモリカウントなど、ベンチマークチュートリアルについては、benchmark.mdを参照してください。
ONNXおよびTENSORTの展開サポートのdeploy.mdを参照してください。
高度なユースケースとPytorchautodriveでコーディングする方法については、advanced_tutorial.mdをチェックアウトします。
貢献ガイドについては、寄付を参照してください。
このフレームワークがあなたの研究を大幅に助けたと感じた場合、または結果を使用する際に参照を必要とする場合は、Pytorchautodriveの公式リリースを行った次の論文を引用してください。
@inproceedings{feng2022rethinking,
title={Rethinking efficient lane detection via curve modeling},
author={Feng, Zhengyang and Guo, Shaohua and Tan, Xin and Xu, Ke and Wang, Min and Ma, Lizhuang},
booktitle={Computer Vision and Pattern Recognition},
year={2022}
}
Pytorchautodriveは、Zhengyang Feng(voldemortx)およびShaohua Guo(Cedricgsh)によって維持されています。
貢献者(Github ID):Kalkun、LittleJohnkhan、Francis0407、Pannenetsf、BJZHB666
私たちを後援した人々(例えば、ハードウェア):Lizhuang Ma、Xin Tan、Junshu Tang(Junshutang)、Fengqi Liu(Fengqiliu1221)