
_ _ _
___ _ __ ___ ___ | | _ ___ __ __ __ __ _ __ (_) __ _ _ __ | | _ ___
/ __ || '_`_ / _ | __ | / _ _____ // // _` || '__ || | / _` || '_ | __ |/ __ |
__ | | | | | | || (_) || | _ | __ /| _____ | v /| (_ | | || | | || (_ | || | | | || | _ __
| ___/| _ | | _ | | _ | ___/ __ | ___ | _/ __, _ || _ | | _ | __, _ || _ | | _ | __ || ___/
불균형 학습을위한 Smote-Variants
최신 뉴스
- 1.0.0 릴리스가 나왔습니다
- 언더 샘플링 기술이 추가되었습니다
- @SZGHLM 덕분에 SmoteWB가 추가되었습니다
- 성능 향상을위한 대부분의 기술을위한 벡터화 된 구현
- 리팩토링되고 개선 된 평가 및 모델 선택 툴킷
- 100% 테스트 범위
- 10.0 pep8 적합성 (pylint)
- polynom_fit_smote는 4 가지 기술로 분할됩니다
- Symprod는 @intouchkun 덕분에 86 번째 오버 샘플러로 추가되었습니다.
소개
패키지는 SMOTE (Synthetic Minority Oversampling Technique)의 86 변형을 구현합니다. 구현 외에도 사용하기 쉬운 모델 선택 프레임 워크가 제공되어 보이지 않는 데이터 세트에서 오버 샘플링 기술을 신속하게 평가할 수 있습니다.
구현 된 기술 : [smote], [smote_tomeklinks], [smote_enn], [borderline_smote1], [borderline_smote2], [adasyn], [ahc], [lle_smote], [smmo], [smmo], [polizy__smote], [Stefanowski. ], [adoms], [safe_level_smote], [msmote], [de_oversampling], [smobd], [sundo], [msyn], [svm_balance], [trim_smote], [smote_rsb], [prowsyn], [sl_graph_smote], [nrsboundary_smote], [lvq_smote], [soi_cj], [rose], [smote_out], [smote_cosine], [selected_smote], [ln_smote], [mwmote], [pdfos], [ipade_id], [rwo_sampling], [neater. ], [deago], [gazzah], [mct], [adg], [smote_ipf], [kerneladasyn], [mot2ld], [v_synth], [oups], [smote_d], [smote_pso], [cure_smote], [somo], [isomap_hybrid], [ce_smote], [Edge_det_smote], [cbso], [e_smote], [dbsmote], [asmobd], [Assembled_smote], [sdsmote], [dsmote], [g_smote], [nt_smote] ], [Lee], [spy], [smote_psobat], [mdo], [random_smote], [ismote], [vis_rst], [gasmote], [a_suwo], [smote_frst_2t], [and_smote], [nras], [amsco], [sso], [ndo_sampling], [dsrbf], [gaussian_smote], [kmeans_smote], [supervised_smote], [sn_smote], [ccr], [ans], [cluster_smote], [symprod], [smotewb] ]]
비교 및 평가
구현 된 모든 기술에 대한 자세한 비교 및 평가는 link_to_comparison_paper를 참조하십시오.
소환
연구 에서이 패키지를 사용하는 경우 아래 논문을 인용하는 것을 고려하십시오.
패키지를 설명하는 프리 프린트 링크 _to_package_paper를 참조하십시오
패키지 용 Bibtex :
@article { smote-variants ,
author = { Gy"orgy Kov'acs } ,
title = { smote-variants: a Python Implementation of 85 Minority Oversampling Techniques } ,
journal = { Neurocomputing } ,
note = { (IF-2019=4.07) } ,
volume = { 366 } ,
pages = { 352--354 } ,
year = { 2019 } ,
group = { journal } ,
code = { https://github.com/analyticalmindsltd/smote_variants } ,
doi = { 10.1016/j.neucom.2019.06.100 }
} 비교 연구의 사전 인쇄는 Link_to_evaluation_paper를 참조하십시오
비교 및 평가를위한 Bibtex :
@article { smote-comparison ,
author = { Gy"orgy Kov'acs } ,
title = { An empirical comparison and evaluation of minority oversampling techniques on a large number of imbalanced datasets } ,
journal = { Applied Soft Computing } ,
note = { (IF-2019=4.873) } ,
volume = { 83 } ,
pages = { 105662 } ,
year = { 2019 } ,
link = { https://www.sciencedirect.com/science/article/pii/S1568494619304429 } ,
group = { journal } ,
code = { https://github.com/analyticalmindsltd/smote_variants } ,
doi = { 10.1016/j.asoc.2019.105662 }
} 설치
패키지는 일반적인 방식으로 Github에서 클로닝 할 수 있으며 최신 안정 버전은 PYPI 저장소에서도 사용할 수 있습니다.
pip install smote-variants
선적 서류 비치
- 자세한 설명서는 http://smote-variants.readthedocs.io를 참조하십시오.
- YouTube 자습서 확인 https://www.youtube.com/watch?v=gsk7akqpm60
모범 사례
정규화/표준화/스케일링/기능 선택
대부분의 오버 샘플링 기술은 속성에 의해 암시 된 유클리드 공간에서 작동합니다. 따라서 속성을 적절하게 정상화/스케일링하는 것이 매우 중요합니다. 속성의 중요성에 대한 지식이 없으면 정규화/표준화가 좋은 첫 번째 시도입니다. 부트 스트랩 분류에서 일부 도메인 지식 또는 속성 중요성을 갖는 것은 그 중요성에 따른 속성 범위의 스케일링도 합리적입니다. 또는 기능 서브 세트 선택은 가장 적합한 서브 스페이스에서 작업을 과도하게 샘플링하여 결과를 향상시킬 수 있습니다.
생성 할 샘플 수에 대한 모델 선택
오버 샘플링 후 분류는 생성되는 소수 샘플의 수에 매우 민감합니다. 결정 경계 근처의 양성 및 음성 샘플의 밀도가 거의 동일하다면 대부분의 분류기가 가장 효율적으로 작동하기 때문에 데이터 세트의 균형은 거의 올바른 선택이 아닙니다. 양수 및 음성 클래스의 매니 폴드가 거의 같은 크기를 가지지 않으면 데이터 세트의 균형을 유지하면이를 달성 할 수 없습니다. 더욱이, 특정 지역에서는 상황을 되돌릴 수도 있습니다. 소수 클래스의 매니 폴드가 다수 계급의 매니 폴드보다 훨씬 작 으면 균형은 소수 클래스를 의사 결정 경계를 따라 지역 환경의 대다수로 바꿀 것입니다.
해결책은 생성되는 샘플 수에 대한 모델 선택을 적용하는 것입니다. `smote-variants` 패키지에 구현 된 거의 모든 기술에는 `proportion` 이라는 매개 변수가 있습니다. 이 매개 변수는 생성 할 샘플의 수, 즉 생성 된 소수 샘플의 수는 `proportion*(N_maj - N_min)` , 즉 비율 매개 변수를 1로 설정하면 데이터 세트의 균형을 맞 춥니 다. `proportion` = 0.1, 0.2, 0.5, 1.0, 2.0, 5.0과 같은 범위에 대해 교차 검증 된 모델 선택을 수행하는 것이 좋습니다.
샘플 사용
이진 오버 샘플링
import smote_variants as sv
import imbalanced_databases as imbd
dataset = imbd . load_iris0 ()
X , y = dataset [ 'data' ], dataset [ 'target' ]
oversampler = sv . distance_SMOTE ()
# X_samp and y_samp contain the oversampled dataset
X_samp , y_samp = oversampler . sample ( X , y )
멀티 클래스 오버 샘플링
import smote_variants as sv
import sklearn . datasets as datasets
dataset = datasets . load_wine ()
X , y = dataset [ 'data' ], dataset [ 'target' ]
oversampler = sv . MulticlassOversampling ( oversampler = 'distance_SMOTE' ,
oversampler_params = { 'random_state' : 5 })
# X_samp and y_samp contain the oversampled dataset
X_samp , y_samp = oversampler . sample ( X , y )최고의 오버 샘플러 선택
from sklearn . neighbors import KNeighborsClassifier
from sklearn . tree import DecisionTreeClassifier
import smote_variants as sv
import sklearn . datasets as datasets
dataset = datasets . load_breast_cancer ()
dataset = { 'data' : dataset [ 'data' ],
'target' : dataset [ 'target' ],
'name' : 'breast_cancer' }
classifiers = [( 'sklearn.neighbors' , 'KNeighborsClassifier' , {}),
( 'sklearn.tree' , 'DecisionTreeClassifier' , {})]
oversamplers = sv . queries . get_all_oversamplers ( n_quickest = 2 )
os_params = sv . queries . generate_parameter_combinations ( oversamplers ,
n_max_comb = 2 )
# samp_obj and cl_obj contain the oversampling and classifier objects which give the
# best performance together
samp_obj , cl_obj = sv . evaluation . model_selection ( dataset = dataset ,
oversamplers = os_params ,
classifiers = classifiers ,
validator_params = { 'n_splits' : 2 ,
'n_repeats' : 1 },
n_jobs = 5 )
# training the best techniques using the entire dataset
X_samp , y_samp = samp_obj . sample ( dataset [ 'data' ],
dataset [ 'target' ])
cl_obj . fit ( X_samp , y_samp )Sklearn 파이프 라인과의 통합
import smote_variants as sv
import imblearn . datasets as imb_datasets
from sklearn . model_selection import train_test_split , GridSearchCV
from sklearn . pipeline import Pipeline
from sklearn . preprocessing import StandardScaler
from sklearn . neighbors import KNeighborsClassifier
libras = imb_datasets . fetch_datasets ()[ 'libras_move' ]
X , y = libras [ 'data' ], libras [ 'target' ]
oversampler = ( 'smote_variants' , 'MulticlassOversampling' ,
{ 'oversampler' : 'distance_SMOTE' , 'oversampler_params' : {}})
classifier = ( 'sklearn.neighbors' , 'KNeighborsClassifier' , {})
# Constructing a pipeline which contains oversampling and classification
# as the last step.
model = Pipeline ([( 'scale' , StandardScaler ()),
( 'clf' , sv . classifiers . OversamplingClassifier ( oversampler , classifier ))])
model . fit ( X , y )Sklearn 그리드 검색과 통합
import smote_variants as sv
import imblearn . datasets as imb_datasets
from sklearn . model_selection import train_test_split , GridSearchCV
from sklearn . pipeline import Pipeline
from sklearn . preprocessing import StandardScaler
from sklearn . neighbors import KNeighborsClassifier
libras = imb_datasets . fetch_datasets ()[ 'libras_move' ]
X , y = libras [ 'data' ], libras [ 'target' ]
oversampler = ( 'smote_variants' , 'MulticlassOversampling' ,
{ 'oversampler' : 'distance_SMOTE' , 'oversampler_params' : {}})
classifier = ( 'sklearn.neighbors' , 'KNeighborsClassifier' , {})
# Constructing a pipeline with oversampling and classification as the last step
model = Pipeline ([( 'scale' , StandardScaler ()),
( 'clf' , sv . classifiers . OversamplingClassifier ( oversampler , classifier ))])
param_grid = { 'clf__oversampler' :[( 'smote_variants' , 'distance_SMOTE' , { 'proportion' : 0.5 }),
( 'smote_variants' , 'distance_SMOTE' , { 'proportion' : 1.0 }),
( 'smote_variants' , 'distance_SMOTE' , { 'proportion' : 1.5 })]}
# Specifying the gridsearch for model selection
grid = GridSearchCV ( model ,
param_grid = param_grid ,
cv = 3 ,
n_jobs = 1 ,
verbose = 2 ,
scoring = 'accuracy' )
# Fitting the pipeline
grid . fit ( X , y ) 기부금
더 이상 과도 샘플링 기술을 구현하고 풀 요청이 준비 되 자마자 코드를 논의하십시오!
참조
| [smote] | Chawla, NV 및 Bowyer, KW 및 Hall, Lo 및 Kegelmeyer, WP, "{Smote} : 합성 소수의 오버 샘플링 기술", Journal of Artificial Intelligence Research, 2002, pp. 321-357 |
| [smote_tomeklinks] | Batista, Gustavo Eapa 및 Prati, Ronaldo C. 및 Monard, Maria Carolina, "머신 학습 교육 데이터의 균형을 잡는 몇 가지 방법의 행동에 대한 연구", Sigkdd Explor. Newsl., 2004, pp. 20-29 |
| [smote_enn] | Batista, Gustavo Eapa 및 Prati, Ronaldo C. 및 Monard, Maria Carolina, "머신 학습 교육 데이터의 균형을 잡는 몇 가지 방법의 행동에 대한 연구", Sigkdd Explor. Newsl., 2004, pp. 20-29 |
| [Borderline_smote1] | HA, "Borderline-Smote : 불균형 데이터 세트 학습의 새로운 오버 샘플링 방법", Intelligent Computing의 발전, 2005, pp. 878--887 |
| [Borderline_smote2] | HA, "Borderline-Smote : 불균형 데이터 세트 학습의 새로운 오버 샘플링 방법", Intelligent Computing의 발전, 2005, pp. 878--887 |
| [Adasyn] | He, H. and Bai, Y. 및 Garcia, EA 및 Li, S., "{adasyn} : 불균형 학습을위한 적응성 합성 샘플링 접근", IJCNN, 2008, pp. 1322-11328 |
| [AHC] | Gilles Cohen과 Mélanie Hilario, Hugo Sax와 Stéphane Hugonnet 및 Antoine Geissbuhler, "노소 감염 감시에서 불균형 데이터로부터의 학습", 의학, 2006, pp. 7-18 |
| [lle_smote] | Wang, J. 및 Xu, M. 및 Wang, H. and Zhang, J., "Smote 알고리즘과 로컬 선형 임베딩을 사용하여 불균형 데이터의 분류", 2006 8 번째 신호 처리에 관한 국제 회의, 2006, pp. |
| [거리 _smote] | De La Calleja, J. 및 Fuentes, O., "불균형 데이터 세트로부터 학습을위한 거리 기반 오버 샘플링 방법", Twentieth International Florida Artificial Intelligence, 2007, pp. 634--635의 절차 |
| [SMMO] | De La Calleja, Jorge 및 Fuentes, Olac 및 González, Jesús는 "오버 샘플링을 위해 잘못 분류 된 데이터에서 소수의 사례를 선택합니다." , 21 번째 국제 플로리다 인공 지능 연구 협회 회의, 2008, pp. 276-281의 절차 |
| [polynom_fit_smote] | Gazzah, S. 및 Amara, NEB, "불균형 데이터 세트에 대한 다항식 피팅을 기반으로 한 새로운 오버 샘플링 접근법", 2008 문서 분석 시스템에 대한 8 번째 IAPR 국제 워크숍, 2008, pp. 677-684 |
| [Stefanowski] | Stefanowski, Jerzy and Wilk, Szymon, "분류 성능 향상을위한 불균형 데이터의 선택적 사전 처리", 데이터웨어 하우징 및 지식 발견에 관한 제 10 차 국제 회의 절차, 2008, pp. 283-292 |
| [Adoms] | Tang, S. and Chen, S., "Synthetic Minority Class 예제의 세대 메커니즘", 2008 Biomedicine의 정보 기술 및 응용에 관한 국제 회의, 2008, pp. 444-447 |
| [safe_level_smote] | Bunkhumpornpat, Chumphol 및 Sinapiromsaran, Krung and Lursinsap, Chidchanok, "안전 수준의 소수 : 계급 불균형 문제를 처리하기위한 안전 수준의 소수 샘플링 기술", 지식 발견의 발전에 관한 13 차 태평양-아시아 회의의 절차 및 Data Mining, 2009, pp. 475--482 |
| [MSMote] | Hu, Shengguo 및 Liang, Yanfeng 및 Ma, Lintao 및 He, Ying, "MSMote : 교육 데이터가 불균형 할 때 분류 성능 향상", 컴퓨터 과학 및 엔지니어링에 관한 2009 년 두 번째 국제 워크숍 - 2009 년, pp. 13 -17 |
| [de_overs 샘플링] | Chen, L. and Cai, Z. 및 Chen, L. and Gu, Q., "불균형 데이터 세트에 대한 새로운 차동 진화-클러스터링 하이브리드 리샘플링 알고리즘", 2010 지식 발견 및 데이터 마이닝에 관한 제 3 차 국제 회의, 2010, pp. 81-85 |
| [smobd] | Cao, Q. and Wang, S., "데이터 밀도 및 비용에 민감한 SVM을 기반으로 한 과도한 샘플링 기술 적용 불균형 학습", 2011 정보 관리, 혁신 관리 및 산업 공학, 2011, pp. 543-548에 관한 국제 회의 |
| [Sundo] | Cateni, S. and Colla, V. 및 Vannucci, M., "산업 및 기타 실제 문제를위한 불균형 데이터 세트의 분류를위한 새로운 리샘플링 방법", 2011 Intelligent Systems Design and Applications, 2011, pp. 402-407 |
| [MSYN] | FA, "불균형 데이터 세트에서 학습을위한 마진 기반 오버 샘플링 방법", 지식 발견 및 데이터 마이닝의 발전, 2011, pp. 309--320 |
| [SVM_BALANCE] | Farquad, Mah 및 Bose, Indranil, "지원 벡터 머신을 사용한 불균형 데이터 전처리", decis. Syst., 2012, pp. 226-233 |
| [trim_smote] | Puntumapo, "합성 소수 샘플링을위한 정확하고 일반화 된 지역을 검색하기위한 가지 치기 기반 접근법", 지식 발견 및 데이터 마이닝의 발전, 2012, pp. 371--382 |
| [smote_rsb] | Ramento, "Smote-RSB*: Smote 및 Rough Sets 이론을 사용하여 높은 불균형 데이터 세트에 대한 오버 샘플링 및 언더 샘플링을 기반으로 한 하이브리드 전처리 접근법", 지식 및 정보 시스템, 2012, pp. 245--265 |
| [Prowsyn] | Baru, "Prowsyn : 불균형 데이터 세트 학습을위한 근접성 가중 합성 오버 샘플링 기술", 지식 발견 및 데이터 마이닝의 발전, 2013, pp. 317--328 |
| [SL_GRAPH_SMOTE] | Bunkhumpornpat, Chumpol 및 Subpaiboonkit, Sitthichoke, "합성 소수의 과도한 샘플링 기술을위한 안전 수준 그래프", 13 번째 통신 및 정보 기술에 관한 국제 심포지엄, 2013, pp. 570-575 |
| [nrsboundary_smote] | Feng, Hu and Hang, Li, "Neineter Rough Set Model을 기반으로 한 소설 경계 오버 샘플링 알고리즘 : NRSBoundary-Smote", 공학의 수학적 문제, 2013, pp. 10 |
| [lvq_smote] | Munehiro Nakamura와 Yusuke Kajiwara 및 Atsushi Otsuka 및 Haruhiko Kimura, "LVQ-Smote-Biodata Mining, 2013 년 학습 벡터 양자화 기반 합성 소수-샘플링 기술", 2013 년 |
| [SOI_CJ] | Sánchez, Atlántida I. 및 Morales, Eduardo and Gonzalez, Jesus, "클러스터링을 사용한 사례의 합성 오버 샘플링", International Journal of Artificial Intelligence Tools, 2013, pp. |
| [장미] | Menard, "불균형 데이터로 분류 규칙 교육 및 평가", 데이터 마이닝 및 지식 발견, 2014, pp. 92-122 |
| [smote_out] | Fajri Koto, "Smote-Out, Smote-Cosine 및 Selected-Smote : 데이터 수준의 불균형을 처리하기위한 강화 전략", 2014 고급 컴퓨터 과학 및 정보 시스템에 관한 국제 회의, 2014, pp. 280-284 |
| [smote_cosine] | Fajri Koto, "Smote-Out, Smote-Cosine 및 Selected-Smote : 데이터 수준의 불균형을 처리하기위한 강화 전략", 2014 고급 컴퓨터 과학 및 정보 시스템에 관한 국제 회의, 2014, pp. 280-284 |
| [selected_smote] | Fajri Koto, "Smote-Out, Smote-Cosine 및 Selected-Smote : 데이터 수준의 불균형을 처리하기위한 강화 전략", 2014 고급 컴퓨터 과학 및 정보 시스템에 관한 국제 회의, 2014, pp. 280-284 |
| [ln_smote] | Maciejewski, T. 및 Stefanowski, J., "불균형 데이터를위한 스테로의 지역 이웃 확장", 2011 IEEE Symposium on Computational Intelligence and Data Mining (CIDM), 2011, pp. 104-111 |
| [mwmote] | Barua, S. and Islam, MM 및 Yao, X. 및 Murase, K., "Mwmote- 불균형 데이터 세트 학습을위한 소수의 소수 샘플링 기술", 지식 및 데이터 엔지니어링에 대한 IEEE 거래, 2014, pp. 405-425 |
| [PDFOS] | Ming Gao와 Xia Hong과 Sheng Chen과 Chris J. Harris 및 Emad Khalaf, "PDFOS : 불균형 2 등석 문제에 대한 PDF 추정", Neurocomputing, 2014, pp. 248-259 |
| [iPade_id] | Victoria López와 Isaac Triguero와 Cristóbal J. Carmona와 Salvador García 및 Francisco Herrera, "인스턴스 생성 기술로 불균형 분류 해결 : iPade -Id", Neurocomputing, 2014, pp. 15-28 |
| [rwo_sampling] | Zhang, Huaxzhang 및 Li, Mingfang, "RWO-Sampling : 불균형 데이터 분류에 대한 임의의 산책 과도 샘플링 접근", Information Fusion, 2014, pp. |
| [네이터] | Almogahed, BA 및 Kakadiaris, IA, "NEATER : 비 흡수 게임 이론을 사용하여 과도한 샘플링 된 데이터의 필터링", 2014 22ND International Conference on Pattern Recognition, 2014, pp. 1371-1376 |
| [Deago] | Bellinger, C. 및 Japkowicz, N. 및 Drummond, C., "고급 방사능 위협 탐지를위한 합성 오버 샘플링", 2015 IEEE 14th International Conference on Machine Learning and Applications (ICMLA), 2015, pp. 948-953 |
| [Gazzah] | Gazzah, S. 및 Hechkel, A. 및 Essoukri Ben Amara, N. |
| [MCT] | Jiang, Liangxiao 및 Qiu, Chen and Li, Chaoqun, "비용에 민감한 학습을위한 소수 소수 민족 복제 기술", International Journal of Pattern Recognition and Intificial Intelligence, 2015, pp. 1551004 |
| [ADG] | Pourhabib, A. 및 Mallick, Bani K. 및 Ding, Yu, "비용에 민감한 학습을위한 소수 소수 민족 복제 기술", Journal of Machine Learning Research, 2015, pp. 2695--2724 |
| [smote_ipf] | José A. Sáez와 Julián Luengo와 Jerzy Stefanowski 및 Francisco Herrera, "Smote – IPF : 필터링과의 재 샘플링 방법에 의해 불균형 분류에서 시끄럽고 경계선 사례 문제 해결", Information Sciences, 2015, pp. 184-203 |
| [kerneladasyn] | Tang, B. and He, H., "Kerneladasyn : 불균형 학습을위한 커널 기반 적응 합성 데이터 생성", 2015 IEEE 의회 진화 계산에 관한 의회 (CEC), 2015, pp. 664-671 |
| [mot2ld] | XI, "불균형 학습을위한 저차원 공간의 국부 밀도를 기반으로 한 합성 소수의 오버 샘플링 방법", Advanced Applications 용 데이터베이스 시스템, 2015, pp. 3--18 |
| [v_synth] | 영 Appl., 2015, pp. 1041--1054 |
| [oups] | William A. Rivera와 Petros Xanthopoulos, "불균형 데이터 세트에서 분류 민감도를 높이기위한 선험적 합성 과잉 샘플링 방법", Applications with Applications, 2016, pp. 124-135 |
| [smote_d] | Torre, "Smote-D Smote의 결정 론적 버전", Pattern Repodition, 2016, pp. 177-188 |
| [smote_pso] | Jair Cervantes와 Farid Garcia-Lamont와 Lisbeth Rodriguez와 Asdrúbal López와 José Ruiz Castilla 및 Adrian Trueba, "비뚤어진 데이터 세트에 대한 SVM 분류를위한 PSO 기반 방법", Neurocomputing, 2017, pp. 187-197 |
| [Cure_Smote] | M, "임의의 숲을 기반으로 한 기능 선택 및 매개 변수 최적화를위한 치료 스모트 알고리즘 및 하이브리드 알고리즘", BMC Bioinformatics, 2017, pp. 169 |
| [소모] | Georgios Douzas와 Fernando Bacao, "불균형 데이터 세트 학습을위한 자체 구성지도 오버 샘플링 (Somo)", 응용 프로그램이있는 전문가 시스템, 2017, pp. 40-52 |
| [ISOMAP_HYBRID] | GU, QIONG 및 CAI, ZHIHUA 및 ZHU, LI, "ISOMAP를 기반으로 하이브리드 리 샘플링 알고리즘을 사용하여 불균형 데이터 세트의 분류", 계산 및 인텔리전스의 발전에 관한 제 4 차 국제 심포지엄의 절차, pp. 287- -296 |
| [Edge_det_smote] | Kang, Y. and Won, S., "클래스 밸런스 어드너스 학습에 대한 오버 샘플링 기술을위한 웨이트 결정 알고리즘", ICCAS 2010, 2010, pp. 182-186 |
| [CBSO] | Baru, "불균형 데이터 세트 학습을위한 새로운 합성 소수 애플리케이션 기술", Neural Information Processing, 2011, pp. 735--744 |
| [e_smote] | Deepa, T. and Punithavalli, M., "고차원 불균형 데이터 세트에서 기능 선택을위한 전자 흡연 기술", 2011 3rd International Conference on Electronics Computer Technology, 2011, pp. 322-324 |
| [dbsmote] | Bunkhumpornpa, "DBSMOTE : 밀도 기반 합성 소수 샘플링 기술", Applied Intelligence, 2012, pp. 664--684 |
| [ASMOBD] | Senzhang Wang과 Zhoujun Li와 Wenhan Chao 및 Qinghua Cao, "데이터 밀도 및 비용에 민감한 SVM을 기반으로 적응 형과 샘플링 기술 적용 불균형 학습", 2012 년 신경망에 관한 국제 공동 회의 (IJCNN), 2012, pp. 1 -8 |
| [Assembled_smote] | Zhou, B. and Yang, C. and Guo, H. and Hu, J., "불균형 데이터 분류를 위해 조립 된 스마트와 결합 된 준 선형 SVM", 2013 IJCNN (International Joint Conferences), 2013, 2013, 2013, 2013. 1-7 쪽 |
| [sdsmote] | Li, K. and Zhang, W. and Lu, Q. and Fang, X., "지원 학위를 기반으로 한 개선 된 Smote 불균형 데이터 분류 방법", 2014 사물 인터넷의 식별, 정보 및 지식에 관한 국제 회의, 2014 , 34-38 쪽 |
| [dsmote] | Mahmoudi, S. 및 Moradi, P. 및 Akhlaghian, F. 및 Moradi, R., "불균형 데이터 분류를위한 과잉 샘플링 기술의 다양성 및 분리 가능한 메트릭", 2014 컴퓨터 및 지식 공학에 관한 4 차 국제 회의 (ICCKE), 2014 , 152-158 쪽 |
| [g_smote] | Sandhan, T. 및 Choi, Jy, "패턴 인식을위한 부분적으로 안내 된 하이브리드 샘플링에 의한 불균형 데이터 세트 처리", 2014 22nd International Conference on Pattern Recognition, 2014, pp. 1449-1453 |
| [NT_SMOTE] | Xu, YH 및 Li, H. 및 Le, LP 및 Tian, XY, "중국 관광 및 환대 회사의 소규모 샘플에 대한 불균형 예측을위한 이웃 삼각형 합성 소수 샘플링 기술", 2014 년 제 7 차 국제 공동 과학 및 최적화에 관한 국제 공동 회의 , 2014, pp. 534-538 |
| [이씨] | Lee, Jaedong 및 Kim, Noo-Ri 및 Lee, Jee-Hyong, "불균형 수업 학습에 대한 거부를 가진 과도한 샘플링 기술", 유비쿼터스 정보 관리 및 커뮤니케이션에 관한 제 9 차 국제 회의, 2015, pp. 102 : 1 -102 : 6 |
| [스파이] | Dang, XT and Tran, DH 및 Hirose, O. 및 Satou, K., "Spy : 불균형 데이터의 분류 성능 향상을위한 새로운 리샘플링 방법", 2015 년 제 7 차 국제 지식 및 시스템 공학 회의 (KSE), 2015, pp 280-285 |
| [smote_psobat] | Li, J. and Fong, S. and Zhuang, Y., "신경망 및 의사 결정 트리를 통해 Metaheuristics의 스마트 최적화", 2015 년 제 3 차 국제 계산 및 비즈니스 인텔리전스 심포지엄 (ISCBI), 2015, pp. 26-32 |
| [MDO] | Abdi, L. and Hashemi, S., "오버 샘플링 기술을 통해 멀티 클래스 불균형 문제와 싸우기 위해", 지식 및 데이터 엔지니어링에 대한 IEEE 거래, 2016, pp. 238-251 |
| [random_smote] | Don, "새로운 오버 샘플링 접근법 : 불균형 데이터 세트로부터의 학습을위한 임의의 연습", Knowledge Scienc, 2011, pp. 343--352 |
| [Ismote] | L, "불균형 데이터를위한 새로운 조합 샘플링 방법", 2013 년 중국 지능형 자동화 회의의 절차, 2013, pp. 547--554 |
| [vis_rst] | Borowsk, "불균형 데이터 분류 : 다목적 개선 된 스모트 및 거친 세트를 결합한 새로운 재 샘플링 접근법", 컴퓨터 정보 시스템 및 산업 관리, 2016, pp. 31-42 |
| [Gasmote] | Jian, "유전자 알고리즘을 기반으로 한 불균형 데이터 분류를위한 새로운 알고리즘 개선 Smote", Arabian Journal for Science and Engineering, 2016, pp. 3255--3266 |
| [A_SUWO] | IMAN NEKOOEIMEHR 및 SUSANA K. LAI-YUEN, "불균형 데이터 세트에 대한 A-SUWO (Adaptive Semi-Unsupervised Weightsampling), Applications with Applications, 2016, pp. 405-416 |
| [smote_frst_2t] | Ramento, "고전압 회로 차단기 유지 보수의 진단을위한 퍼지 러프 불균형 학습 : Smote-FRST-2T 알고리즘", 인공 지능의 엔지니어링 애플리케이션, 2016, pp. 134-139 |
| [and_smote] | Yun, Jaesub and Ha, Jihyun 및 Lee, Jong-Seok, "Smote의 이웃 규모의 자동 결정", 유비쿼터스 정보 관리 및 커뮤니케이션에 관한 제 10 회 국제 회의, pp. 100 : 1-100 : 8 |
| [NRA] | William A. Rivera, "클래스 불균형 데이터 세트에 대한 선험적 합성 과잉 샘플링", 정보 과학, 2017, pp. 146-161 |
| [AMSCO] | Jinyan Li와 Simon Fong과 Raymond K. Wong 및 Victor W. Chu, "불균형 데이터 분류를위한 적응 형 다목적 떼 퓨전 퓨전", Information Fusion, 2018, pp. 1-24 |
| [SSO] | Ron, "불균형 데이터에 대한 확률 적 감도 과량 샘플링 기술", Machine Learning and Cybernetics, 2014, pp. 161--171 |
| [NDO_SAMPLING] | Zhang, L. and Wang, W., "신용 데이터를 통한 수업 불균형 학습을위한 재 샘플링 방법", 2011 국제 정보 기술, 컴퓨터 엔지니어링 및 관리 과학, 2011, pp. 393-397 |
| [DSRBF] | Francisco Fernández-Navarro와 César Hervás-Martínez 및 Pedro Antonio Gutiérrez, "다중 클래스 문제에 대한 민감도를 기반으로 한 역동적 인 과도한 샘플링 절차", Pattern Repensition, 2011, pp. 1821-1833 |
| [gaussian_smote] | Hansoo Lee와 Jonggeun Kim과 Sungshin Kim, "가우스 기반 스케이트 분포를 해결하기위한 가우스 기반 스모 테 알고리즘", int. J. 퍼지 논리 및 지능형 시스템, 2017, 229-234 쪽 |
| [kmeans_smote] | Georgios Douzas와 Fernando Bacao 및 Felix Last, "K -Means and Smote를 기반으로 한 휴리스틱 오버 샘플링 방법을 통한 불균형 학습 개선", Information Sciences, 2018, pp. 1-20 |
| [supervised_smote] | Hu, Jun and He, Xue and Yu, Dong-Jun and Yang, Xi-Bei and Yang, Jing-Yu and Shen, Hong-Bin, "단백질-핵무기 결합 잔류 예측에 적용되는 새로운 감독 된 과도한 샘플링 알고리즘" , PLOS ONE, 2014, pp. 1-10 |
| [SN_SMOTE] | GARC { 'I}, "불균형 데이터 세트로부터 학습을위한 이웃 기반의 스모트 주변", 인공 지능의 진행, 2012, pp. 347--362 |
| [CCR] | Koziarski, Michał and Wozniak, Michal, "CCR : 불균형 데이터 분류를위한 결합 된 청소 및 리 샘플링 알고리즘", International Journal of Applied Mathematics and Computer Science, 2017, pp. 727–736 |
| [ANS] | Siriseriwan, W and Sinapiromsaran, Krung, "1NN의 추방 취급 하의 적응 형 이웃 합성 소수 오버 샘플링 기술", Songklanakarin Journal of Science and Technology, 2017, pp. 565-576 |
| [cluster_smote] | Cieslak, DA 및 Chawla, NV 및 Striegel, A., "네트워크 침입 데이터 세트의 불균형 퇴치", 2006 IEEE 과립 컴퓨팅에 관한 IEEE 국제 회의, 2006, pp. 732-737 |
| [Symprod] | Kunakorntum, I. and Hinthong, W. 및 Phunchongharn, P., "불균형 데이터 세트에 대한 확률 분포 (Symprod) 오버 샘플링에 기반한 합성 소수 민족", IEEE Access, 2020, pp. 114704 |
| [smotewb] | Sağlam, F. and Cengiz, MA, "새로운 스모 테 기반 리샘플링 기술 트로프 노이즈 감지 및 부스팅 절차", Applications with Applications, 2022, pp. 117023 |