การใช้งาน Pytorch ของ EfficientDet
มันขึ้นอยู่กับไฟล์
มีการใช้งาน pytorch อื่น ๆ วิธีการของพวกเขาไม่สอดคล้องกับเป้าหมายของฉันในการทำซ้ำโมเดล Tensorflow (แต่ด้วยความรู้สึกและความยืดหยุ่นของ pytorch) หรือพวกเขาไม่สามารถเข้าใกล้เพื่อจำลองการฝึกอบรม MS Coco ตั้งแต่เริ่มต้น
นอกเหนือจากการกำหนดค่าโมเดลเริ่มต้นแล้วยังมีความยืดหยุ่นมากมายในการอำนวยความสะดวกในการทดลองและการปรับปรุงอย่างรวดเร็วที่นี่ - ตัวเลือกบางอย่างตาม Tensorflow อย่างเป็นทางการของฉันเอง: บางตัวเอง:
timm ของฉันที่รองรับการแยกคุณสมบัติ ( features_only arg) สามารถใช้เป็น bacbkone timm 0.9timm Convert_sync_batchnorm ในขณะที่จัดการรุ่นที่อัปเดตด้วยเลเยอร์ batchnormact2defficientnetv2_ds น้ำหนัก 50.1 แผนที่ @ efficientnetv2_rw_s โดยใช้การตัด AGC และ Backbone ของ timm หน่วยความจำใช้เทียบเท่ากับ D3 ความเร็วเร็วกว่า D4 ขนาดเล็กกว่าการฝึกซ้อมขนาดที่ดีที่สุดอาจทำได้ดีกว่า ...efficientnetv2_dt น้ำหนักเป็นชุดใหม่ 46.1 แผนที่ @ 768x768, 47.0 แผนที่ @ 896x896 โดยใช้การตัด AGCtimm ) แนวคิดจาก ( High-Performance Large-Scale Image Recognition Without Normalization -https://arxiv.org/abs/2102.06171)timm รุ่นต่ำสุดชนถึง 0.4.12efficientnetv2_dt ตามรุ่นของ timm efficientnetv2_rw_t (TINGE) 45.8 แผนที่ @ 768x768tf_efficientdet_d?_apefficientdet_q1 (แทนที่รุ่นก่อนหน้าที่ 40.6)cspresdet50cspdarkdet53m--torchscript ) เป็นไปได้ด้วยการรวม ModelEmav2 จาก timm และการเพิ่ม TORCHScript ก่อนหน้านี้ เพิ่มความเร็วมากสำหรับการฝึกอบรม CPUefficientdet_q0/q1/q2 ) และ CSPRESDEXT + PAN ( cspresdext50pan ) ดูตารางที่อัปเดตด้านล่าง ขอขอบคุณเป็นพิเศษสำหรับ Artus สำหรับการจัดหาทรัพยากรสำหรับการฝึกอบรมโมเดล Q2max / avg ใด ๆnew_focal , ใช้ --legacy-focal arg เพื่อใช้ต้นฉบับ Legacy ใช้หน่วยความจำน้อยลง แต่มีปัญหาความมั่นคงเชิงตัวเลขมากขึ้นtimm > = 0.3.2 จำเป็นต้องตรวจสอบสองครั้งตรวจสอบการกำหนดค่าโมเดลที่กำหนดเองที่กำหนดเองสำหรับการเปลี่ยนแปลงการเปลี่ยนแปลงรวมกันสองสามเดือนของการแก้ไขและเพิ่มเติม
size % 128 = 0 ในแต่ละสลัวบางสิ่งในรายการลำดับความสำคัญที่ฉันยังไม่ได้จัดการ:
หมายเหตุ มีการเปลี่ยนแปลงบางอย่าง:
timm เวอร์ชันของคุณเป็นล่าสุด (> = 0.3) เนื่องจาก API บางตัวสำหรับผู้ช่วยเปลี่ยนเล็กน้อยการตรวจสอบสติในการฝึกอบรมได้ทำใน VOC และ OI
ตารางด้านล่างมีโมเดลที่มีน้ำหนักที่ได้รับการฝึกฝน มีหลายรุ่นอื่น ๆ ที่ฉันได้กำหนดไว้ในการกำหนดค่าแบบจำลองที่ใช้ backbones timm ต่างๆ
| แตกต่างกันไป | แผนที่ (Val2017) | MAP (TEST-DEV2017) | แผนที่ (TF Official Val2017) | MAP (TF TEST-DEV2017 อย่างเป็นทางการ) | params (M) | ขนาด IMG |
|---|---|---|---|---|---|---|
| tf_efficientdet_lite0 | 27.1 | TBD | 26.4 | N/A | 3.24 | 320 |
| tf_efficientdet_lite1 | 32.2 | TBD | 31.5 | N/A | 4.25 | 384 |
| Efficientdet_d0 | 33.6 | TBD | N/A | N/A | 3.88 | 512 |
| tf_efficientdet_d0 | 34.2 | TBD | 34.3 | 34.6 | 3.88 | 512 |
| tf_efficientdet_d0_ap | 34.8 | TBD | 35.2 | 35.3 | 3.88 | 512 |
| Efficientdet_q0 | 35.7 | TBD | N/A | N/A | 4.13 | 512 |
| tf_efficientdet_lite2 | 35.9 | TBD | 35.1 | N/A | 5.25 | 448 |
| Efficientdet_d1 | 39.4 | 39.5 | N/A | N/A | 6.62 | 640 |
| tf_efficientdet_lite3 | 39.6 | TBD | 38.8 | N/A | 8.35 | 512 |
| tf_efficientdet_d1 | 40.1 | TBD | 40.2 | 40.5 | 6.63 | 640 |
| tf_efficientdet_d1_ap | 40.8 | TBD | 40.9 | 40.8 | 6.63 | 640 |
| EfficientTetEt_Q1 | 40.9 | TBD | N/A | N/A | 6.98 | 640 |
| CSPRESDEXT50PAN | 41.2 | TBD | N/A | N/A | 22.2 | 640 |
| Resdet50 | 41.6 | TBD | N/A | N/A | 27.6 | 640 |
| EfficientDet_q2 | 43.1 | TBD | N/A | N/A | 8.81 | 768 |
| CSPRESDET50 | 43.2 | TBD | N/A | N/A | 24.3 | 768 |
| tf_efficientdet_d2 | 43.4 | TBD | 42.5 | 43 | 8.10 | 768 |
| tf_efficientdet_lite3x | 43.6 | TBD | 42.6 | N/A | 9.28 | 640 |
| tf_efficientdet_lite4 | 44.2 | TBD | 43.2 | N/A | 15.1 | 640 |
| tf_efficientdet_d2_ap | 44.2 | TBD | 44.3 | 44.3 | 8.10 | 768 |
| cspdarkdet53m | 45.2 | TBD | N/A | N/A | 35.6 | 768 |
| EfficientDetv2_dt | 46.1 | TBD | N/A | N/A | 13.4 | 768 |
| tf_efficientdet_d3 | 47.1 | TBD | 47.2 | 47.5 | 12.0 | 896 |
| tf_efficientdet_d3_ap | 47.7 | TBD | 48.0 | 47.7 | 12.0 | 896 |
| tf_efficientdet_d4 | 49.2 | TBD | 49.3 | 49.7 | 20.7 | 1024 |
| EfficientDetV2_DS | 50.1 | TBD | N/A | N/A | 26.6 | 1024 |
| tf_efficientdet_d4_ap | 50.2 | TBD | 50.4 | 50.4 | 20.7 | 1024 |
| tf_efficientdet_d5 | 51.2 | TBD | 51.2 | 51.5 | 33.7 | 1280 |
| tf_efficientdet_d6 | 52.0 | TBD | 52.1 | 52.6 | 51.9 | 1280 |
| tf_efficientdet_d5_ap | 52.1 | TBD | 52.2 | 52.5 | 33.7 | 1280 |
| tf_efficientdet_d7 | 53.1 | 53.4 | 53.4 | 53.7 | 51.9 | ค.ศ. 1536 |
| tf_efficientdet_d7x | 54.3 | TBD | 54.4 | 55.1 | 77.1 | ค.ศ. 1536 |
ดูการกำหนดค่ารุ่นสำหรับ URL และความแตกต่างของจุดตรวจสอบแบบจำลอง
หมายเหตุ: คะแนนอย่างเป็นทางการสำหรับโมดูลทั้งหมดในขณะนี้โดยใช้ Soft-NM แต่ยังคงใช้ NMS ปกติที่นี่
หมายเหตุ: ในการฝึกอบรมแบบจำลองการทดลองบางอย่างฉันสังเกตเห็นปัญหาที่อาจเกิดขึ้นกับการรวมกันของ batchNorm ที่ซิงโครไนซ์ ( --sync-bn ) และแบบจำลอง EMA น้ำหนักที่ Everagaging ( --model-ema ) ในระหว่างการฝึกอบรมแบบกระจาย ผลที่ได้คือทั้งแบบจำลองที่ไม่สามารถมาบรรจบกันหรือดูเหมือนจะมาบรรจบกัน (การสูญเสียการฝึกอบรม) แต่การสูญเสียการประเมิน (การเรียกใช้สถิติ BN) เป็นขยะ ฉันไม่ได้สังเกตสิ่งนี้ด้วย EfficientNets แต่มี backbones บางอย่างเช่น CSPRESNEXT, VOVNET ฯลฯ การปิดการใช้งาน EMA หรือ Sync BN ดูเหมือนจะกำจัดปัญหาและส่งผลให้แบบจำลองที่ดี ฉันยังไม่ได้ระบุปัญหานี้อย่างเต็มที่
ทดสอบใน Python 3.7 - 3.9 สภาพแวดล้อม conda ใน Linux ด้วย:
pip install timm หรือติดตั้งในท้องถิ่นจาก (https://github.com/rwightman/pytorch-image-models)หมายเหตุ - มีความขัดแย้ง/ข้อผิดพลาดกับ numpy 1.18+ และ pycocotools 2.0, บังคับให้ติดตั้ง numpy <= 1.17.5 หรือตรวจสอบให้แน่ใจว่าคุณติดตั้ง pycocotools> = 2.0.2
ข้อมูลการตรวจสอบ MSCOCO 2017:
wget http://images.cocodataset.org/zips/val2017.zip
wget http://images.cocodataset.org/annotations/annotations_trainval2017.zip
unzip val2017.zip
unzip annotations_trainval2017.zip
ข้อมูลการทดสอบ MSCOCO 2017:
wget http://images.cocodataset.org/zips/test2017.zip
unzip -q test2017.zip
wget http://images.cocodataset.org/annotations/image_info_test2017.zip
unzip image_info_test2017.zip
เรียกใช้การตรวจสอบความถูกต้อง (Val2017 โดยค่าเริ่มต้น) ด้วยรุ่น D2: python validate.py /localtion/of/mscoco/ --model tf_efficientdet_d2
เรียกใช้ test-dev2017: python validate.py /localtion/of/mscoco/ --model tf_efficientdet_d2 --split testdev
./distributed_train.sh 4 /mscoco --model tf_efficientdet_d0 -b 16 --amp --lr .09 --warmup-epochs 5 --sync-bn --opt fusedmomentum --model-ema
บันทึก:
--fill-color mean ) เป็นพื้นหลังสำหรับการเติมเต็ม/สเกล/การเติมเต็มอย่างเป็นทางการ repo อย่างเป็นทางการใช้พิกเซลสีดำ (0) ( --fill-color 0 ) ทั้งสองทำงานได้ดี2550, 2012, และรวมการทดสอบ 2007 + 2012 w/ ติดป้ายกำกับ 2007 สำหรับการตรวจสอบความถูกต้องได้รับการสนับสนุน
wget http://host.robots.ox.ac.uk/pascal/VOC/voc2012/VOCtrainval_11-May-2012.tar
wget http://host.robots.ox.ac.uk/pascal/VOC/voc2007/VOCtrainval_06-Nov-2007.tar
wget http://host.robots.ox.ac.uk/pascal/VOC/voc2007/VOCtest_06-Nov-2007.tar
find . -name '*.tar' -exec tar xf {} ;
ควรมีโฟลเดอร์ VOC2007 และ VOC2012 ภายใน VOCdevkit รูทชุดข้อมูลสำหรับสาย CMD จะเป็น VOCDEVKIT
ลิงค์ดาวน์โหลดทางเลือกช้ากว่า แต่บ่อยกว่า ox.ac.uk:
http://pjreddie.com/media/files/VOCtrainval_11-May-2012.tar
http://pjreddie.com/media/files/VOCtrainval_06-Nov-2007.tar
http://pjreddie.com/media/files/VOCtest_06-Nov-2007.tar
ประเมินเกี่ยวกับชุดการตรวจสอบ VOC2012: python validate.py /data/VOCdevkit --model efficientdet_d0 --num-gpu 2 --dataset voc2007 --checkpoint mychekpoint.pth --num-classes 20
ปรับแต่งน้ำหนัก Coco ที่ปรับให้เข้ากับ VOC 2007 + 2012: /distributed_train.sh 4 /data/VOCdevkit --model efficientdet_d0 --dataset voc0712 -b 16 --amp --lr .008 --sync-bn --opt fusedmomentum --warmup-epochs 3 --model-ema --model-ema-decay 0.9966 --epochs 150 --num-classes 20 --pretrained
การตั้งค่าชุดข้อมูล OpenImages เป็นความมุ่งมั่น ฉันพยายามทำให้ WRT ง่ายขึ้นเล็กน้อยกับคำอธิบายประกอบ แต่การคว้าชุดข้อมูลยังคงใช้เวลาอยู่พอสมควร จะใช้พื้นที่เก็บข้อมูลประมาณ 560GB
ในการดาวน์โหลดข้อมูลรูปภาพฉันชอบบรรจุภัณฑ์ CVDF หน้าชุดข้อมูล OpenImages หลัก, คำอธิบายประกอบ, ข้อมูลใบอนุญาตชุดข้อมูลสามารถดูได้ที่: https://storage.googleapis.com/openimages/web/index.html
ทำตามคำแนะนำการดาวน์โหลด S3 ที่นี่: https://github.com/cvdfoundation/open-images-dataset#download-images-with-bounding-boxes-annotations
แต่ละ train_<x>.tar.gz ควรถูกสกัดไปยังโฟลเดอร์ train/<x> โดยที่ X เป็นเลขฐานสิบหกจาก 0-F validation.tar.gz สามารถแยกเป็นไฟล์แบนลงใน validation/
คำอธิบายประกอบสามารถดาวน์โหลดแยกต่างหากจากหน้าแรกของ OpenImages ด้านบน เพื่อความสะดวกฉันได้บรรจุไฟล์เหล่านั้นทั้งหมดพร้อมกับไฟล์ 'ข้อมูล' เพิ่มเติม 'CSV ที่มี ID และสถิติสำหรับไฟล์รูปภาพทั้งหมด ชุดข้อมูลของฉันขึ้นอยู่กับไฟล์ <set>-info.csv โปรดดู https://storage.googleapis.com/openimages/web/factsfigures.html สำหรับใบอนุญาตของคำอธิบายประกอบเหล่านี้ คำอธิบายประกอบได้รับใบอนุญาตโดย Google LLC ภายใต้ CC โดยใบอนุญาต 4.0 รูปภาพถูกระบุว่ามีใบอนุญาต CC โดย 2.0
wget https://github.com/rwightman/efficientdet-pytorch/releases/download/v0.1-anno/openimages-annotations.tar.bz2
wget https://github.com/rwightman/efficientdet-pytorch/releases/download/v0.1-anno/openimages-annotations-challenge-2019.tar.bz2
find . -name '*.tar.bz2' -exec tar xf {} ;
เมื่อทุกอย่างถูกดาวน์โหลดและแยกรูทของโฟลเดอร์ Data OpenImages ของคุณควรมี:
annotations/<csv anno for openimages v5/v6>
annotations/challenge-2019/<csv anno for challenge2019>
train/0/<all the image files starting with '0'>
.
.
.
train/f/<all the image files starting with 'f'>
validation/<all the image files in same folder>
การฝึกอบรมด้วยความท้าทาย 2019 คำอธิบายประกอบ (500 คลาส): ./distributed_train.sh 4 /data/openimages --model efficientdet_d0 --dataset openimages-challenge2019 -b 7 --amp --lr .042 --sync-bn --opt fusedmomentum --warmup-epochs 1 --lr-noise 0.4 0.9 --model-ema --model-ema-decay 0.999966 --epochs 100 --remode pixel --reprob 0.15 --recount 4 --num-classes 500 --val-skip 2
หัวคลาส 500 (Challenge2019) หรือ 601 (V5/V6) สำหรับ OI ใช้หน่วยความจำ GPU มากขึ้นเทียบกับ Coco คุณอาจต้องใช้ขนาดแบทช์ครึ่งหนึ่ง
แบบจำลองที่นี่ถูกใช้กับรูทีนการฝึกอบรมที่กำหนดเองและชุดข้อมูลที่มีผลลัพธ์ที่ยอดเยี่ยม มีรายละเอียดมากมายที่ต้องหาดังนั้นโปรดอย่ายื่นคำร้อง 'ฉันได้ผลลัพธ์อึในปัญหาชุดข้อมูลที่กำหนดเอง' หากคุณสามารถแสดงให้เห็นถึงปัญหาที่ทำซ้ำได้ในชุดข้อมูลสาธารณะที่ไม่สามารถดาวน์โหลดได้พร้อมกับ GitHub Public ของ Repo นี้รวมถึงการใช้งานชุดข้อมูล/การใช้งานพาร์สเซอร์ฉันอาจมีเวลาดู
ตัวอย่าง:
timm และรุ่นล่าสุดของรุ่น EfficientDet ที่นี่หากคุณมีตัวอย่างสคริปต์หรือเคอร์เนลที่ฝึกอบรมโมเดลเหล่านี้ด้วยชุดข้อมูลที่แตกต่างกันอย่าลังเลที่จะแจ้งให้ฉันทราบถึงการรวมไว้ที่นี่ ...
การฝึกอบรมล่าสุดดำเนินการด้วย. 336 สำหรับ D0 (บน 4x 1080Ti): ./distributed_train.sh 4 /mscoco --model efficientdet_d0 -b 22 --amp --lr .12 --sync-bn --opt fusedmomentum --warmup-epochs 5 --lr-noise 0.4 0.9 --model-ema --model-ema-decay 0.9999
HPARAM เหล่านี้ข้างต้นส่งผลให้แบบจำลองที่ดีไม่กี่จุด:
Val2017
Average Precision (AP) @[ IoU=0.50:0.95 | area= all | maxDets=100 ] = 0.336251
Average Precision (AP) @[ IoU=0.50 | area= all | maxDets=100 ] = 0.521584
Average Precision (AP) @[ IoU=0.75 | area= all | maxDets=100 ] = 0.356439
Average Precision (AP) @[ IoU=0.50:0.95 | area= small | maxDets=100 ] = 0.123988
Average Precision (AP) @[ IoU=0.50:0.95 | area=medium | maxDets=100 ] = 0.395033
Average Precision (AP) @[ IoU=0.50:0.95 | area= large | maxDets=100 ] = 0.521695
Average Recall (AR) @[ IoU=0.50:0.95 | area= all | maxDets= 1 ] = 0.287121
Average Recall (AR) @[ IoU=0.50:0.95 | area= all | maxDets= 10 ] = 0.441450
Average Recall (AR) @[ IoU=0.50:0.95 | area= all | maxDets=100 ] = 0.467914
Average Recall (AR) @[ IoU=0.50:0.95 | area= small | maxDets=100 ] = 0.197697
Average Recall (AR) @[ IoU=0.50:0.95 | area=medium | maxDets=100 ] = 0.552515
Average Recall (AR) @[ IoU=0.50:0.95 | area= large | maxDets=100 ] = 0.689297
วิ่งล่าสุดด้วยแผนที่. 394 (บน 4x 1080ti): ./distributed_train.sh 4 /mscoco --model efficientdet_d1 -b 10 --amp --lr .06 --sync-bn --opt fusedmomentum --warmup-epochs 5 --lr-noise 0.4 0.9 --model-ema --model-ema-decay 0.99995
สำหรับการวิ่งครั้งนี้ฉันใช้การเพิ่มการเพิ่มขึ้นบางอย่างยังคงทดลองใช้ดังนั้นยังไม่พร้อมสำหรับการเปิดตัวควรทำงานได้ดีหากไม่มีพวกเขา แต่จะเริ่มต้นการทำงานให้เร็วขึ้นเล็กน้อยและอาจจบลงในช่วง. 385-.39
หมายเหตุ: ฉันได้ลองส่ง D7 ไปยัง DEV Server เพื่อตรวจสอบสติเท่านั้นจนถึงตอนนี้
Average Precision (AP) @[ IoU=0.50:0.95 | area= all | maxDets=100 ] = 0.534
Average Precision (AP) @[ IoU=0.50 | area= all | maxDets=100 ] = 0.726
Average Precision (AP) @[ IoU=0.75 | area= all | maxDets=100 ] = 0.577
Average Precision (AP) @[ IoU=0.50:0.95 | area= small | maxDets=100 ] = 0.356
Average Precision (AP) @[ IoU=0.50:0.95 | area=medium | maxDets=100 ] = 0.569
Average Precision (AP) @[ IoU=0.50:0.95 | area= large | maxDets=100 ] = 0.660
Average Recall (AR) @[ IoU=0.50:0.95 | area= all | maxDets= 1 ] = 0.397
Average Recall (AR) @[ IoU=0.50:0.95 | area= all | maxDets= 10 ] = 0.644
Average Recall (AR) @[ IoU=0.50:0.95 | area= all | maxDets=100 ] = 0.682
Average Recall (AR) @[ IoU=0.50:0.95 | area= small | maxDets=100 ] = 0.508
Average Recall (AR) @[ IoU=0.50:0.95 | area=medium | maxDets=100 ] = 0.718
Average Recall (AR) @[ IoU=0.50:0.95 | area= large | maxDets=100 ] = 0.818
Average Precision (AP) @[ IoU=0.50:0.95 | area= all | maxDets=100 ] = 0.341877
Average Precision (AP) @[ IoU=0.50 | area= all | maxDets=100 ] = 0.525112
Average Precision (AP) @[ IoU=0.75 | area= all | maxDets=100 ] = 0.360218
Average Precision (AP) @[ IoU=0.50:0.95 | area= small | maxDets=100 ] = 0.131366
Average Precision (AP) @[ IoU=0.50:0.95 | area=medium | maxDets=100 ] = 0.399686
Average Precision (AP) @[ IoU=0.50:0.95 | area= large | maxDets=100 ] = 0.537368
Average Recall (AR) @[ IoU=0.50:0.95 | area= all | maxDets= 1 ] = 0.293137
Average Recall (AR) @[ IoU=0.50:0.95 | area= all | maxDets= 10 ] = 0.447829
Average Recall (AR) @[ IoU=0.50:0.95 | area= all | maxDets=100 ] = 0.472954
Average Recall (AR) @[ IoU=0.50:0.95 | area= small | maxDets=100 ] = 0.195282
Average Recall (AR) @[ IoU=0.50:0.95 | area=medium | maxDets=100 ] = 0.558127
Average Recall (AR) @[ IoU=0.50:0.95 | area= large | maxDets=100 ] = 0.695312
Average Precision (AP) @[ IoU=0.50:0.95 | area= all | maxDets=100 ] = 0.401070
Average Precision (AP) @[ IoU=0.50 | area= all | maxDets=100 ] = 0.590625
Average Precision (AP) @[ IoU=0.75 | area= all | maxDets=100 ] = 0.422998
Average Precision (AP) @[ IoU=0.50:0.95 | area= small | maxDets=100 ] = 0.211116
Average Precision (AP) @[ IoU=0.50:0.95 | area=medium | maxDets=100 ] = 0.459650
Average Precision (AP) @[ IoU=0.50:0.95 | area= large | maxDets=100 ] = 0.577114
Average Recall (AR) @[ IoU=0.50:0.95 | area= all | maxDets= 1 ] = 0.326565
Average Recall (AR) @[ IoU=0.50:0.95 | area= all | maxDets= 10 ] = 0.507095
Average Recall (AR) @[ IoU=0.50:0.95 | area= all | maxDets=100 ] = 0.537278
Average Recall (AR) @[ IoU=0.50:0.95 | area= small | maxDets=100 ] = 0.308963
Average Recall (AR) @[ IoU=0.50:0.95 | area=medium | maxDets=100 ] = 0.610450
Average Recall (AR) @[ IoU=0.50:0.95 | area= large | maxDets=100 ] = 0.731814
Average Precision (AP) @[ IoU=0.50:0.95 | area= all | maxDets=100 ] = 0.434042
Average Precision (AP) @[ IoU=0.50 | area= all | maxDets=100 ] = 0.627834
Average Precision (AP) @[ IoU=0.75 | area= all | maxDets=100 ] = 0.463488
Average Precision (AP) @[ IoU=0.50:0.95 | area= small | maxDets=100 ] = 0.237414
Average Precision (AP) @[ IoU=0.50:0.95 | area=medium | maxDets=100 ] = 0.486118
Average Precision (AP) @[ IoU=0.50:0.95 | area= large | maxDets=100 ] = 0.606151
Average Recall (AR) @[ IoU=0.50:0.95 | area= all | maxDets= 1 ] = 0.343016
Average Recall (AR) @[ IoU=0.50:0.95 | area= all | maxDets= 10 ] = 0.538328
Average Recall (AR) @[ IoU=0.50:0.95 | area= all | maxDets=100 ] = 0.571489
Average Recall (AR) @[ IoU=0.50:0.95 | area= small | maxDets=100 ] = 0.350301
Average Recall (AR) @[ IoU=0.50:0.95 | area=medium | maxDets=100 ] = 0.638884
Average Recall (AR) @[ IoU=0.50:0.95 | area= large | maxDets=100 ] = 0.746671
Average Precision (AP) @[ IoU=0.50:0.95 | area= all | maxDets=100 ] = 0.471223
Average Precision (AP) @[ IoU=0.50 | area= all | maxDets=100 ] = 0.661550
Average Precision (AP) @[ IoU=0.75 | area= all | maxDets=100 ] = 0.505127
Average Precision (AP) @[ IoU=0.50:0.95 | area= small | maxDets=100 ] = 0.301385
Average Precision (AP) @[ IoU=0.50:0.95 | area=medium | maxDets=100 ] = 0.518339
Average Precision (AP) @[ IoU=0.50:0.95 | area= large | maxDets=100 ] = 0.626571
Average Recall (AR) @[ IoU=0.50:0.95 | area= all | maxDets= 1 ] = 0.365186
Average Recall (AR) @[ IoU=0.50:0.95 | area= all | maxDets= 10 ] = 0.582691
Average Recall (AR) @[ IoU=0.50:0.95 | area= all | maxDets=100 ] = 0.617252
Average Recall (AR) @[ IoU=0.50:0.95 | area= small | maxDets=100 ] = 0.424689
Average Recall (AR) @[ IoU=0.50:0.95 | area=medium | maxDets=100 ] = 0.670761
Average Recall (AR) @[ IoU=0.50:0.95 | area= large | maxDets=100 ] = 0.779611
Average Precision (AP) @[ IoU=0.50:0.95 | area= all | maxDets=100 ] = 0.491759
Average Precision (AP) @[ IoU=0.50 | area= all | maxDets=100 ] = 0.686005
Average Precision (AP) @[ IoU=0.75 | area= all | maxDets=100 ] = 0.527791
Average Precision (AP) @[ IoU=0.50:0.95 | area= small | maxDets=100 ] = 0.325658
Average Precision (AP) @[ IoU=0.50:0.95 | area=medium | maxDets=100 ] = 0.536508
Average Precision (AP) @[ IoU=0.50:0.95 | area= large | maxDets=100 ] = 0.635309
Average Recall (AR) @[ IoU=0.50:0.95 | area= all | maxDets= 1 ] = 0.373752
Average Recall (AR) @[ IoU=0.50:0.95 | area= all | maxDets= 10 ] = 0.601733
Average Recall (AR) @[ IoU=0.50:0.95 | area= all | maxDets=100 ] = 0.638343
Average Recall (AR) @[ IoU=0.50:0.95 | area= small | maxDets=100 ] = 0.463057
Average Recall (AR) @[ IoU=0.50:0.95 | area=medium | maxDets=100 ] = 0.685103
Average Recall (AR) @[ IoU=0.50:0.95 | area= large | maxDets=100 ] = 0.789180
Average Precision (AP) @[ IoU=0.50:0.95 | area= all | maxDets=100 ] = 0.511767
Average Precision (AP) @[ IoU=0.50 | area= all | maxDets=100 ] = 0.704835
Average Precision (AP) @[ IoU=0.75 | area= all | maxDets=100 ] = 0.552920
Average Precision (AP) @[ IoU=0.50:0.95 | area= small | maxDets=100 ] = 0.355680
Average Precision (AP) @[ IoU=0.50:0.95 | area=medium | maxDets=100 ] = 0.551341
Average Precision (AP) @[ IoU=0.50:0.95 | area= large | maxDets=100 ] = 0.650184
Average Recall (AR) @[ IoU=0.50:0.95 | area= all | maxDets= 1 ] = 0.384516
Average Recall (AR) @[ IoU=0.50:0.95 | area= all | maxDets= 10 ] = 0.619196
Average Recall (AR) @[ IoU=0.50:0.95 | area= all | maxDets=100 ] = 0.657445
Average Recall (AR) @[ IoU=0.50:0.95 | area= small | maxDets=100 ] = 0.499319
Average Recall (AR) @[ IoU=0.50:0.95 | area=medium | maxDets=100 ] = 0.695617
Average Recall (AR) @[ IoU=0.50:0.95 | area= large | maxDets=100 ] = 0.788889
Average Precision (AP) @[ IoU=0.50:0.95 | area= all | maxDets=100 ] = 0.520200
Average Precision (AP) @[ IoU=0.50 | area= all | maxDets=100 ] = 0.713204
Average Precision (AP) @[ IoU=0.75 | area= all | maxDets=100 ] = 0.560973
Average Precision (AP) @[ IoU=0.50:0.95 | area= small | maxDets=100 ] = 0.361596
Average Precision (AP) @[ IoU=0.50:0.95 | area=medium | maxDets=100 ] = 0.567414
Average Precision (AP) @[ IoU=0.50:0.95 | area= large | maxDets=100 ] = 0.657173
Average Recall (AR) @[ IoU=0.50:0.95 | area= all | maxDets= 1 ] = 0.387733
Average Recall (AR) @[ IoU=0.50:0.95 | area= all | maxDets= 10 ] = 0.629269
Average Recall (AR) @[ IoU=0.50:0.95 | area= all | maxDets=100 ] = 0.667495
Average Recall (AR) @[ IoU=0.50:0.95 | area= small | maxDets=100 ] = 0.499002
Average Recall (AR) @[ IoU=0.50:0.95 | area=medium | maxDets=100 ] = 0.711909
Average Recall (AR) @[ IoU=0.50:0.95 | area= large | maxDets=100 ] = 0.802336
Average Precision (AP) @[ IoU=0.50:0.95 | area= all | maxDets=100 ] = 0.531256
Average Precision (AP) @[ IoU=0.50 | area= all | maxDets=100 ] = 0.724700
Average Precision (AP) @[ IoU=0.75 | area= all | maxDets=100 ] = 0.571787
Average Precision (AP) @[ IoU=0.50:0.95 | area= small | maxDets=100 ] = 0.368872
Average Precision (AP) @[ IoU=0.50:0.95 | area=medium | maxDets=100 ] = 0.573938
Average Precision (AP) @[ IoU=0.50:0.95 | area= large | maxDets=100 ] = 0.668253
Average Recall (AR) @[ IoU=0.50:0.95 | area= all | maxDets= 1 ] = 0.393620
Average Recall (AR) @[ IoU=0.50:0.95 | area= all | maxDets= 10 ] = 0.637601
Average Recall (AR) @[ IoU=0.50:0.95 | area= all | maxDets=100 ] = 0.676987
Average Recall (AR) @[ IoU=0.50:0.95 | area= small | maxDets=100 ] = 0.524850
Average Recall (AR) @[ IoU=0.50:0.95 | area=medium | maxDets=100 ] = 0.717553
Average Recall (AR) @[ IoU=0.50:0.95 | area= large | maxDets=100 ] = 0.806352
Average Precision (AP) @[ IoU=0.50:0.95 | area= all | maxDets=100 ] = 0.543
Average Precision (AP) @[ IoU=0.50 | area= all | maxDets=100 ] = 0.737
Average Precision (AP) @[ IoU=0.75 | area= all | maxDets=100 ] = 0.585
Average Precision (AP) @[ IoU=0.50:0.95 | area= small | maxDets=100 ] = 0.401
Average Precision (AP) @[ IoU=0.50:0.95 | area=medium | maxDets=100 ] = 0.579
Average Precision (AP) @[ IoU=0.50:0.95 | area= large | maxDets=100 ] = 0.680
Average Recall (AR) @[ IoU=0.50:0.95 | area= all | maxDets= 1 ] = 0.398
Average Recall (AR) @[ IoU=0.50:0.95 | area= all | maxDets= 10 ] = 0.649
Average Recall (AR) @[ IoU=0.50:0.95 | area= all | maxDets=100 ] = 0.689
Average Recall (AR) @[ IoU=0.50:0.95 | area= small | maxDets=100 ] = 0.550
Average Recall (AR) @[ IoU=0.50:0.95 | area=medium | maxDets=100 ] = 0.725
Average Recall (AR) @[ IoU=0.50:0.95 | area= large | maxDets=100 ] = 0.823
หากคุณเป็นองค์กรมีความสนใจในการสนับสนุนและงานนี้หรือจัดลำดับความสำคัญของความสนใจในอนาคตที่เป็นไปได้ที่คุณรู้สึกอิสระที่จะติดต่อฉัน (ปัญหา, LinkedIn, Twitter, สวัสดีที่ Rwightman dot com) ฉันจะตั้งค่าผู้สนับสนุน GitHub หากมีความสนใจ