deep transfer learning
1.0.0
이것은 심해 학습을위한 Pytorch 라이브러리입니다. 우리는 코드를 두 가지 측면으로 나눕니다. 단일 소스 비 감독 도메인 적응 (SUDA) 및 다중 소스 감독되지 않은 도메인 적응 (MUDA). 많은 Suda 방법이 있지만 딥 러닝에는 몇 가지 Muda 방법이 있습니다. 게다가, 딥 러닝이있는 Muda는 도메인 적응을위한 더 유망한 방향 일 수 있습니다.
여기서 나는 다음과 같이 몇 가지 깊은 전송 방법을 구현했습니다.
| 방법 | a -w | D- w | W -d | a -d | D- a | W- a | 평균 |
|---|---|---|---|---|---|---|---|
| RESNET | 68.4 ± 0.5 | 96.7 ± 0.5 | 99.3 ± 0.1 | 68.9 ± 0.2 | 62.5 ± 0.3 | 60.7 ± 0.3 | 76.1 |
| DDC | 75.8 ± 0.2 | 95.0 ± 0.2 | 98.2 ± 0.1 | 77.5 ± 0.3 | 67.4 ± 0.4 | 64.0 ± 0.5 | 79.7 |
| DDC* | 78.3 ± 0.4 | 97.1 ± 0.1 | 100.0 ± 0.0 | 81.7 ± 0.9 | 65.2 ± 0.6 | 65.1 ± 0.4 | 81.2 |
| 단 | 83.8 ± 0.4 | 96.8 ± 0.2 | 99.5 ± 0.1 | 78.4 ± 0.2 | 66.7 ± 0.3 | 62.7 ± 0.2 | 81.3 |
| 단* | 82.6 ± 0.7 | 97.7 ± 0.1 | 100.0 ± 0.0 | 83.1 ± 0.9 | 66.8 ± 0.3 | 66.6 ± 0.4 | 82.8 |
| dcoral* | 79.0 ± 0.5 | 98.0 ± 0.2 | 100.0 ± 0.0 | 82.7 ± 0.1 | 65.3 ± 0.3 | 64.5 ± 0.3 | 81.6 |
| 반사 | 82.0 ± 0.4 | 96.9 ± 0.2 | 99.1 ± 0.1 | 79.7 ± 0.4 | 68.2 ± 0.4 | 67.4 ± 0.5 | 82.2 |
| 반사* | 82.6 ± 0.9 | 97.8 ± 0.2 | 100.0 ± 0.0 | 83.3 ± 0.9 | 66.8 ± 0.1 | 66.1 ± 0.5 | 82.8 |
| MRAN | 91.4 ± 0.1 | 96.9 ± 0.3 | 99.8 ± 0.2 | 86.4 ± 0.6 | 68.3 ± 0.5 | 70.9 ± 0.6 | 85.6 |
| DSAN | 93.6 ± 0.2 | 98.4 ± 0.1 | 100.0 ± 0.0 | 90.2 ± 0.7 | 73.5 ± 0.5 | 74.8 ± 0.4 | 88.4 |
'*'가없는 결과는 종이에서 나옵니다. '*'의 결과는 코드로 직접 실행됩니다.
| 표준 | 방법 | a, w -d | a, d -w | d, w -a | 평균 |
|---|---|---|---|---|---|
| RESNET | 99.3 | 96.7 | 62.5 | 86.2 | |
| 단 | 99.5 | 96.8 | 66.7 | 87.7 | |
| 최고 | dcoral | 99.7 | 98.0 | 65.3 | 87.7 |
| 반사 | 99.1 | 96.9 | 68.2 | 88.1 | |
| 단 | 99.6 | 97.8 | 67.6 | 88.3 | |
| 소스 결합 | dcoral | 99.3 | 98.0 | 67.1 | 88.1 |
| 반사 | 99.7 | 98.1 | 67.6 | 88.5 | |
| 멀티 소스 | MFSAN | 99.5 | 98.5 | 72.7 | 90.2 |
| 표준 | 방법 | C, P, R- a | a, p, r -c | a, c, r -p | a, c, p -r | 평균 |
|---|---|---|---|---|---|---|
| RESNET | 65.3 | 49.6 | 79.7 | 75.4 | 67.5 | |
| 단 | 64.1 | 50.8 | 78.2 | 75.0 | 67.0 | |
| 최고 | dcoral | 68.2 | 56.5 | 80.3 | 75.9 | 70.2 |
| 반사 | 67.9 | 55.9 | 80.4 | 75.8 | 70.0 | |
| 단 | 68.5 | 59.4 | 79.0 | 82.5 | 72.4 | |
| 소스 결합 | dcoral | 68.1 | 58.6 | 79.5 | 82.7 | 72.2 |
| 반사 | 68.4 | 59.1 | 79.5 | 82.7 | 72.4 | |
| 멀티 소스 | MFSAN | 72.1 | 62.0 | 80.3 | 81.8 | 74.1 |
(1) 소스 결합 : 모든 소스 도메인은 기존의 단일 소스 대 목표 설정으로 결합됩니다. (2) 단일 최고 : 여러 소스 도메인 중에서 우리는 최고의 단일 소스 전송 결과를보고합니다. (3) 다중 소스 : Muda 방법의 결과.
정확도가 100%인 경우 문제는 데이터 세트 폴더 일 수 있습니다. 데이터 제공 업체가 작동하는 데 필요한 폴더 구조는 다음과 같습니다.
-dataset
-amazon
-webcam
-dslr
이 라이브러리에 문제가있는 경우 문제를 만들거나 다음에 이메일을 보내주십시오.
이 저장소를 사용하는 경우 다음 논문을 인용하십시오.
@inproceedings{zhu2019aligning,
title={Aligning domain-specific distribution and classifier for cross-domain classification from multiple sources},
author={Zhu, Yongchun and Zhuang, Fuzhen and Wang, Deqing},
booktitle={Proceedings of the AAAI Conference on Artificial Intelligence},
volume={33},
pages={5989--5996},
year={2019}
}
@article{zhu2020deep,
title={Deep subdomain adaptation network for image classification},
author={Zhu, Yongchun and Zhuang, Fuzhen and Wang, Jindong and Ke, Guolin and Chen, Jingwu and Bian, Jiang and Xiong, Hui and He, Qing},
journal={IEEE transactions on neural networks and learning systems},
volume={32},
number={4},
pages={1713--1722},
year={2020},
publisher={IEEE}
}
@article{zhu2019multi,
title={Multi-representation adaptation network for cross-domain image classification},
author={Zhu, Yongchun and Zhuang, Fuzhen and Wang, Jindong and Chen, Jingwu and Shi, Zhiping and Wu, Wenjuan and He, Qing},
journal={Neural Networks},
volume={119},
pages={214--221},
year={2019},
publisher={Elsevier}
}