นี่คือห้องสมุด Pytorch สำหรับการเรียนรู้การถ่ายโอนอย่างลึกซึ้ง เราแบ่งรหัสออกเป็นสองด้าน: การปรับตัวโดเมนที่ไม่ได้รับการสนับสนุนจากแหล่งเดียว (SUDA) และการปรับตัวโดเมนที่ไม่ได้รับการสนับสนุนหลายแหล่ง (MUDA) มีวิธี Suda มากมาย แต่ฉันพบว่ามีวิธีการ Muda บางอย่างที่มีการเรียนรู้อย่างลึกซึ้ง นอกจากนี้ Muda ที่มีการเรียนรู้อย่างลึกซึ้งอาจเป็นทิศทางที่มีแนวโน้มมากขึ้นสำหรับการปรับตัวของโดเมน
ที่นี่ฉันได้ใช้วิธีการถ่ายโอนลึกบางอย่างดังนี้:
| วิธี | A - W | D - W | W - D | A - D | D - A | W - A | เฉลี่ย |
|---|---|---|---|---|---|---|---|
| resnet | 68.4 ± 0.5 | 96.7 ± 0.5 | 99.3 ± 0.1 | 68.9 ± 0.2 | 62.5 ± 0.3 | 60.7 ± 0.3 | 76.1 |
| DDC | 75.8 ± 0.2 | 95.0 ± 0.2 | 98.2 ± 0.1 | 77.5 ± 0.3 | 67.4 ± 0.4 | 64.0 ± 0.5 | 79.7 |
| DDC* | 78.3 ± 0.4 | 97.1 ± 0.1 | 100.0 ± 0.0 | 81.7 ± 0.9 | 65.2 ± 0.6 | 65.1 ± 0.4 | 81.2 |
| แดน | 83.8 ± 0.4 | 96.8 ± 0.2 | 99.5 ± 0.1 | 78.4 ± 0.2 | 66.7 ± 0.3 | 62.7 ± 0.2 | 81.3 |
| แดน* | 82.6 ± 0.7 | 97.7 ± 0.1 | 100.0 ± 0.0 | 83.1 ± 0.9 | 66.8 ± 0.3 | 66.6 ± 0.4 | 82.8 |
| dcoral* | 79.0 ± 0.5 | 98.0 ± 0.2 | 100.0 ± 0.0 | 82.7 ± 0.1 | 65.3 ± 0.3 | 64.5 ± 0.3 | 81.6 |
| รีดี้ | 82.0 ± 0.4 | 96.9 ± 0.2 | 99.1 ± 0.1 | 79.7 ± 0.4 | 68.2 ± 0.4 | 67.4 ± 0.5 | 82.2 |
| Revgrad* | 82.6 ± 0.9 | 97.8 ± 0.2 | 100.0 ± 0.0 | 83.3 ± 0.9 | 66.8 ± 0.1 | 66.1 ± 0.5 | 82.8 |
| แมงนิ่ง | 91.4 ± 0.1 | 96.9 ± 0.3 | 99.8 ± 0.2 | 86.4 ± 0.6 | 68.3 ± 0.5 | 70.9 ± 0.6 | 85.6 |
| Dsan | 93.6 ± 0.2 | 98.4 ± 0.1 | 100.0 ± 0.0 | 90.2 ± 0.7 | 73.5 ± 0.5 | 74.8 ± 0.4 | 88.4 |
โปรดทราบว่าผลลัพธ์ที่ไม่มี '*' มาจากกระดาษ ผลลัพธ์ที่มี '*' ดำเนินการด้วยตัวเองด้วยรหัส
| มาตรฐาน | วิธี | A, W - D | A, D - W | D, W - A | เฉลี่ย |
|---|---|---|---|---|---|
| resnet | 99.3 | 96.7 | 62.5 | 86.2 | |
| แดน | 99.5 | 96.8 | 66.7 | 87.7 | |
| โสดที่ดีที่สุด | dcoral | 99.7 | 98.0 | 65.3 | 87.7 |
| รีดี้ | 99.1 | 96.9 | 68.2 | 88.1 | |
| แดน | 99.6 | 97.8 | 67.6 | 88.3 | |
| การรวมแหล่งที่มา | dcoral | 99.3 | 98.0 | 67.1 | 88.1 |
| รีดี้ | 99.7 | 98.1 | 67.6 | 88.5 | |
| หลายแหล่ง | mfsan | 99.5 | 98.5 | 72.7 | 90.2 |
| มาตรฐาน | วิธี | C, P, R - A | A, P, R - C | A, C, R - P | A, C, P - R | เฉลี่ย |
|---|---|---|---|---|---|---|
| resnet | 65.3 | 49.6 | 79.7 | 75.4 | 67.5 | |
| แดน | 64.1 | 50.8 | 78.2 | 75.0 | 67.0 | |
| โสดที่ดีที่สุด | dcoral | 68.2 | 56.5 | 80.3 | 75.9 | 70.2 |
| รีดี้ | 67.9 | 55.9 | 80.4 | 75.8 | 70.0 | |
| แดน | 68.5 | 59.4 | 79.0 | 82.5 | 72.4 | |
| การรวมแหล่งที่มา | dcoral | 68.1 | 58.6 | 79.5 | 82.7 | 72.2 |
| รีดี้ | 68.4 | 59.1 | 79.5 | 82.7 | 72.4 | |
| หลายแหล่ง | mfsan | 72.1 | 62.0 | 80.3 | 81.8 | 74.1 |
โปรดทราบว่าแหล่งรวม (1) การรวมกัน: โดเมนต้นทางทั้งหมดจะรวมเข้าด้วยกันในการตั้งค่าเป้าหมายแบบดั้งเดิมกับแหล่งเดียวกับ (2) เดี่ยวดีที่สุด: ในหลาย ๆ โดเมนแหล่งที่มาเรารายงานผลลัพธ์การถ่ายโอนต้นทางเดียวที่ดีที่สุด (3) หลายแหล่ง: ผลลัพธ์ของวิธีการ Muda
หากคุณพบว่าความแม่นยำของคุณคือ 100%ปัญหาอาจเป็นโฟลเดอร์ชุดข้อมูล โปรดทราบว่าโครงสร้างโฟลเดอร์ที่จำเป็นสำหรับผู้ให้บริการข้อมูลคือ:
-dataset
-amazon
-webcam
-dslr
หากคุณมีปัญหาใด ๆ เกี่ยวกับห้องสมุดนี้โปรดสร้างปัญหาหรือส่งอีเมลถึงเราที่:
หากคุณใช้ที่เก็บนี้โปรดอ้างอิงเอกสารต่อไปนี้:
@inproceedings{zhu2019aligning,
title={Aligning domain-specific distribution and classifier for cross-domain classification from multiple sources},
author={Zhu, Yongchun and Zhuang, Fuzhen and Wang, Deqing},
booktitle={Proceedings of the AAAI Conference on Artificial Intelligence},
volume={33},
pages={5989--5996},
year={2019}
}
@article{zhu2020deep,
title={Deep subdomain adaptation network for image classification},
author={Zhu, Yongchun and Zhuang, Fuzhen and Wang, Jindong and Ke, Guolin and Chen, Jingwu and Bian, Jiang and Xiong, Hui and He, Qing},
journal={IEEE transactions on neural networks and learning systems},
volume={32},
number={4},
pages={1713--1722},
year={2020},
publisher={IEEE}
}
@article{zhu2019multi,
title={Multi-representation adaptation network for cross-domain image classification},
author={Zhu, Yongchun and Zhuang, Fuzhen and Wang, Jindong and Chen, Jingwu and Shi, Zhiping and Wu, Wenjuan and He, Qing},
journal={Neural Networks},
volume={119},
pages={214--221},
year={2019},
publisher={Elsevier}
}