
_ _ _
___ _ __ ___ ___ | | _ ___ __ __ __ _ _ __ (_) __ _ _ __ | | _ ___
/ __ || '_ `_ / _ | __ | / _ _____ / // _` || '__ || | / _` || '_ | __ | / __ |
__ | | | | | || (_) || | _ | __ / | _____ | V / | (_ | || | | || (_ | || | | || | _ __
| ___ / | _ | | _ | | _ | ___ / __ | ___ | _ / __, _ || _ | | _ | __, _ || _ | | _ | __ || ___ /
Smote-Variants pour l'apprentissage déséquilibré
Dernières nouvelles
- 1.0.0 La version est sortie
- Techniques de sous-échantillonnage ajoutées
- Smotewb a ajouté, grâce à @szghlm
- Implémentations vectorielles pour la plupart des techniques pour augmenter les performances
- Une boîte à outils d'évaluation et de sélection de modèle refactorisée et améliorée
- Couverture de test à 100%
- 10.0 PEP8 CONFORMANCE (par Pylint)
- polynom_fit_smote divisé en 4 techniques différentes
- Symprod a ajouté que le 86th Oversampler a mis en œuvre, grâce à @intouchkun
Introduction
Le package met en œuvre 86 variantes de la technique de suréchantillonnage des minorités synthétiques (SCOT). Outre les implémentations, un cadre de sélection de modèle facile à utiliser est fourni pour permettre l'évaluation rapide des techniques de suréchantillonnage sur des ensembles de données invisibles.
Les techniques implémentées: [smote], [smote_tomeklinks], [smote_enn], [borderline_smote1], [borderline_smote2], [Adasyn], [ahc], [lle_smote], [Distance_smote], [smmo], [polynom_fit_smote], [Stefanowskidi ], [Adoms], [Safe_Level_Smote], [Msmote], [De_oversampling], [Smobd], [Sundo], [MSYN], [SVM_BALANCE], [TRIM_SMOTE], [SMOTE_RSB], [PROWSYN], [SL_GRAPH_SMOTE], [Nrsboundary_smote], [lvq_smote], [soi_cj], [rose], [smote_out], [smote_cosine], [selected_smote], [ln_smote], [mwmote], [pdfos], [ipade_id], [rwo_sampling],, [pdfos] ], [Deago], [Gazzah], [MCT], [ADG], [SMOTE_IPF], [Kerneladasyn], [Mot2LD], [V_SYNTH], [OUPS], [SMOTE_D], [SMOTE_PSO], [Cure_Smote], [Somo], [isomap_hybrid], [ce_smote], [edge_det_smote], [cbso], [e_smote], [dbsmote], [asmobd], [assembed_smote], [sdsmote], [dsmote], [g_smote], [nt_smote ], [Lee], [SPY], [smote_psobat], [mDo], [random_smote], [ismote], [vis_rst], [Gasmote], [a_suwo], [smote_frst_2t], [et_smote], [nras], [AMSCO], [SSO], [NDO_SAMPLING], [DSRBF], [Gaussian_Smote], [Kmeans_Smote], [Supervised_Smote], [SN_SMOTE], [CCR], [ANS], [Cluster_Smote], [Symprod], [Smotewb ]]
Comparaison et évaluation
Pour une comparaison et une évaluation détaillées de toutes les techniques implémentées, voir link_to_comparison_paper
Citation
Si vous utilisez ce package dans votre recherche, envisagez de citer les articles ci-dessous.
Préimpression décrivant le package Voir link_to_package_paper
Bibtex pour le package:
@article { smote-variants ,
author = { Gy"orgy Kov'acs } ,
title = { smote-variants: a Python Implementation of 85 Minority Oversampling Techniques } ,
journal = { Neurocomputing } ,
note = { (IF-2019=4.07) } ,
volume = { 366 } ,
pages = { 352--354 } ,
year = { 2019 } ,
group = { journal } ,
code = { https://github.com/analyticalmindsltd/smote_variants } ,
doi = { 10.1016/j.neucom.2019.06.100 }
} Pour la préimpression de l'étude comparative, voir Link_To_Evaluation_Paper
Bibtex pour la comparaison et l'évaluation:
@article { smote-comparison ,
author = { Gy"orgy Kov'acs } ,
title = { An empirical comparison and evaluation of minority oversampling techniques on a large number of imbalanced datasets } ,
journal = { Applied Soft Computing } ,
note = { (IF-2019=4.873) } ,
volume = { 83 } ,
pages = { 105662 } ,
year = { 2019 } ,
link = { https://www.sciencedirect.com/science/article/pii/S1568494619304429 } ,
group = { journal } ,
code = { https://github.com/analyticalmindsltd/smote_variants } ,
doi = { 10.1016/j.asoc.2019.105662 }
} Installation
Le package peut être cloné à partir de GitHub de la manière habituelle, et la dernière version stable est également disponible dans le référentiel PYPI:
pip install smote-variants
Documentation
- Pour une documentation détaillée, voir http://smote-variarits.readthedocs.io.
- Pour un tutoriel YouTube, consultez https://www.youtube.com/watch?v=gsk7akqpm60
Meilleures pratiques
Normalisation / standardisation / échelle / sélection de fonctionnalités
La plupart des techniques de suréchantillonnage fonctionnent dans l'espace euclidien impliqué par les attributs. Par conséquent, il est extrêmement important de normaliser / d'étendre les attributs de manière appropriée. Sans aucune connaissance de l'importance des attributs, la normalisation / normalisation est un bon premier essai. Ayant une certaine connaissance du domaine ou une importance d'attribut à partir de la classification bootstrap, la mise à l'échelle des gammes d'attributs en fonction de leur importance est également raisonnable. Alternativement, la sélection des sous-ensembles de fonctions pourrait également améliorer les résultats en échalant du travail dans le sous-espace le plus approprié.
Sélection du modèle pour le nombre d'échantillons à générer
La classification après le suréchantillonnage est très sensible au nombre d'échantillons minoritaires générés. Équilibrer l'ensemble de données est rarement le bon choix, car la plupart des classificateurs fonctionnent le plus efficacement si la densité d'échantillons positifs et négatifs près de la limite de décision est approximativement la même. Si les variétés des classes positives et négatives n'ont pas la même taille approximativement, l'équilibrage de l'ensemble de données ne peut pas y parvenir. De plus, dans certaines régions, il peut même revenir à la situation: si le multiples de la classe minoritaire est beaucoup plus petit que celui de la classe majoritaire, l'équilibrage transformera la classe minoritaire en majorité dans les environnements locaux le long de la frontière de décision.
La solution consiste à appliquer la sélection du modèle pour le nombre d'échantillons générés. Presque toutes les techniques implémentées dans le package `smote-variants` ont un paramètre appelé `proportion` . Ce paramètre contrôle le nombre d'échantillons à générer, à savoir le nombre d'échantillons minoritaires générés est `proportion*(N_maj - N_min)` , c'est-à-dire que la définition du paramètre de proportion sur 1 équilibrera l'ensemble de données. Il est fortement recommandé d'effectuer une sélection de modèles validés croisés pour une plage comme `proportion` = 0,1, 0,2, 0,5, 1,0, 2,0, 5,0.
Utilisation des échantillons
Suréchantillonnage binaire
import smote_variants as sv
import imbalanced_databases as imbd
dataset = imbd . load_iris0 ()
X , y = dataset [ 'data' ], dataset [ 'target' ]
oversampler = sv . distance_SMOTE ()
# X_samp and y_samp contain the oversampled dataset
X_samp , y_samp = oversampler . sample ( X , y )
Suréchantillonnage multiclasse
import smote_variants as sv
import sklearn . datasets as datasets
dataset = datasets . load_wine ()
X , y = dataset [ 'data' ], dataset [ 'target' ]
oversampler = sv . MulticlassOversampling ( oversampler = 'distance_SMOTE' ,
oversampler_params = { 'random_state' : 5 })
# X_samp and y_samp contain the oversampled dataset
X_samp , y_samp = oversampler . sample ( X , y )Sélection du meilleur surex échantillonneur
from sklearn . neighbors import KNeighborsClassifier
from sklearn . tree import DecisionTreeClassifier
import smote_variants as sv
import sklearn . datasets as datasets
dataset = datasets . load_breast_cancer ()
dataset = { 'data' : dataset [ 'data' ],
'target' : dataset [ 'target' ],
'name' : 'breast_cancer' }
classifiers = [( 'sklearn.neighbors' , 'KNeighborsClassifier' , {}),
( 'sklearn.tree' , 'DecisionTreeClassifier' , {})]
oversamplers = sv . queries . get_all_oversamplers ( n_quickest = 2 )
os_params = sv . queries . generate_parameter_combinations ( oversamplers ,
n_max_comb = 2 )
# samp_obj and cl_obj contain the oversampling and classifier objects which give the
# best performance together
samp_obj , cl_obj = sv . evaluation . model_selection ( dataset = dataset ,
oversamplers = os_params ,
classifiers = classifiers ,
validator_params = { 'n_splits' : 2 ,
'n_repeats' : 1 },
n_jobs = 5 )
# training the best techniques using the entire dataset
X_samp , y_samp = samp_obj . sample ( dataset [ 'data' ],
dataset [ 'target' ])
cl_obj . fit ( X_samp , y_samp )Intégration avec les pipelines sklearn
import smote_variants as sv
import imblearn . datasets as imb_datasets
from sklearn . model_selection import train_test_split , GridSearchCV
from sklearn . pipeline import Pipeline
from sklearn . preprocessing import StandardScaler
from sklearn . neighbors import KNeighborsClassifier
libras = imb_datasets . fetch_datasets ()[ 'libras_move' ]
X , y = libras [ 'data' ], libras [ 'target' ]
oversampler = ( 'smote_variants' , 'MulticlassOversampling' ,
{ 'oversampler' : 'distance_SMOTE' , 'oversampler_params' : {}})
classifier = ( 'sklearn.neighbors' , 'KNeighborsClassifier' , {})
# Constructing a pipeline which contains oversampling and classification
# as the last step.
model = Pipeline ([( 'scale' , StandardScaler ()),
( 'clf' , sv . classifiers . OversamplingClassifier ( oversampler , classifier ))])
model . fit ( X , y )Intégration avec la recherche de grille Sklearn
import smote_variants as sv
import imblearn . datasets as imb_datasets
from sklearn . model_selection import train_test_split , GridSearchCV
from sklearn . pipeline import Pipeline
from sklearn . preprocessing import StandardScaler
from sklearn . neighbors import KNeighborsClassifier
libras = imb_datasets . fetch_datasets ()[ 'libras_move' ]
X , y = libras [ 'data' ], libras [ 'target' ]
oversampler = ( 'smote_variants' , 'MulticlassOversampling' ,
{ 'oversampler' : 'distance_SMOTE' , 'oversampler_params' : {}})
classifier = ( 'sklearn.neighbors' , 'KNeighborsClassifier' , {})
# Constructing a pipeline with oversampling and classification as the last step
model = Pipeline ([( 'scale' , StandardScaler ()),
( 'clf' , sv . classifiers . OversamplingClassifier ( oversampler , classifier ))])
param_grid = { 'clf__oversampler' :[( 'smote_variants' , 'distance_SMOTE' , { 'proportion' : 0.5 }),
( 'smote_variants' , 'distance_SMOTE' , { 'proportion' : 1.0 }),
( 'smote_variants' , 'distance_SMOTE' , { 'proportion' : 1.5 })]}
# Specifying the gridsearch for model selection
grid = GridSearchCV ( model ,
param_grid = param_grid ,
cv = 3 ,
n_jobs = 1 ,
verbose = 2 ,
scoring = 'accuracy' )
# Fitting the pipeline
grid . fit ( X , y ) Contribution
N'hésitez pas à mettre en œuvre d'autres techniques de suréchantillonnage et discutons des codes dès que la demande de traction est prête!
Références
| [Sacture] | Chawla, NV et Bowyer, KW et Hall, Lo et Kegelmeyer, WP, "{Smote}: Technique de sur-échantillonnage des minorités synthétiques", Journal of Artificial Intelligence Research, 2002, pp. 321--357 |
| [Smote_tomeklinks] | Batista, Gustavo Eapa et Prati, Ronaldo C. et Monard, Maria Carolina, "Une étude du comportement de plusieurs méthodes d'équilibrage des données d'apprentissage automatique", SIGKDD Explor. Newsl., 2004, pp. 20-29 |
| [Smote_enn] | Batista, Gustavo Eapa et Prati, Ronaldo C. et Monard, Maria Carolina, "Une étude du comportement de plusieurs méthodes d'équilibrage des données d'apprentissage automatique", SIGKDD Explor. Newsl., 2004, pp. 20-29 |
| [Borderline_smote1] | HA, "Borderline-Smote: A New Over-échantillonnage Method in Felanced Data Set Apprends", Advances in Intelligent Computing, 2005, pp. 878--887 |
| [Borderline_smote2] | HA, "Borderline-Smote: A New Over-échantillonnage Method in Felanced Data Set Apprends", Advances in Intelligent Computing, 2005, pp. 878--887 |
| [Adasyn] | Lui, H. et Bai, Y. et Garcia, EA et Li, S. |
| [AHC] | Gilles Cohen et Mélanie Hilario et Hugo Sax et Stéphane Hugonnet et Antoine Geissbuhler, "Learning From Data Fecuanced in Surveillance of Nosocomial Infection", Artificial Intelligence in Medicine, 2006, pp. 7 - 18 |
| [Lle_smote] | Wang, J. et Xu, M. et Wang, H. et Zhang, J., "Classification des données déséquilibrées à l'aide de l'algorithme Smote et de l'incorporation locale linéaire", 2006 8th International Conference on Signal Processing, 2006, pp. |
| [Distance_smote] | De la Calleja, J. et Fuentes, O., "Une méthode de sur-échantillonnage à distance pour apprendre des ensembles de données déséquilibrés", Actes de l'intelligence artificielle internationale de Floride, 2007, pp. 634--635 |
| [SMMO] | De La Calleja, Jorge et Fuentes, Olac et González, Jesús, «Sélection des exemples minoritaires à partir de données mal classées pour sur-échantillonnage». , Proceedings of the Twenty-First International Florida Artificial Intelligence Research Society Conference, 2008, pp. 276-281 |
| [polynom_fit_smote] | Gazzah, S. et Amara, Neb, "New Oversalter Approches basée sur l'ajustement polynomial pour les ensembles de données déséquilibrés", 2008 The Huitième atelier international IAPR sur les systèmes d'analyse de documents, 2008, pp. 677-684 |
| [Stefanowski] | Stefanowski, Jerzy et Wilk, Szymon, "Selective Pre-Processing of Felanced Data for Amélioration des performances de classification", Proceedings of the 10th International Conference on Data Warehousing and Knowledge Discovery, 2008, pp. 283--292 |
| [Adoms] | Tang, S. et Chen, S., «Le mécanisme de génération des exemples de classe de minorités synthétiques», 2008 International Conference on Information Technology and Applications in Biomedicine, 2008, pp. 444-447 |
| [Safe_Level_Smote] | Bunkhumpornpat, Chumphol et Sinapiromsaran, Krung et Lursinsap, Chidchanok, "Technique de sur-échantillonnage des minorités en toute sécurité pour gérer le problème déséquilibré de la classe", Actes de la 13e Conférence du 13e Pacifique-Asia sur les avancées dans la découverte de connaissances " et Data Mining, 2009, pp. 475--482 |
| [Msmote] | Hu, Shengguo et Liang, Yanfeng et Ma, Lintao et He, Ying, "MSMOTE: Amélioration des performances de classification lorsque les données de formation sont déséquilibrées", Actes du deuxième atelier international 2009 sur l'informatique et l'ingénierie - Volume 02, 2009, p. 13 ---17 |
| [De_oversampling] | Chen, L. et Cai, Z. et Chen, L. et Gu, Q., "Un nouveau algorithme de rééchantillonnage hybride de clustering d'évolution différentielle sur les ensembles de données déséquilibrés", 2010 Third International Conference on Knowledge Discovery and Data Mining, 2010, pp. 81-85 |
| [Smobd] | Cao, Q. et Wang, S., «Application de la technique de sur-échantillonnage basée sur la densité des données et le SVM sensible aux coûts à l'apprentissage déséquilibré», 2011 International Conference on Information Management, Innovation Management and Industrial Engineering, 2011, pp. 543-548 |
| [Sundo] | Cateni, S. et Colla, V. et Vannucci, M., "Nouvelle méthode de rééchantillonnage pour la classification des ensembles de données déséquilibrés pour les problèmes industriels et autres du monde réel", 2011 Conférence internationale sur la conception et les applications des systèmes intelligents, 2011, pp. 402-407 |
| [MSYN] | FA, "Méthode de sur-échantillonnage basée sur la marge pour l'apprentissage des ensembles de données déséquilibrés", Advances in Knowledge Discovery and Data Mining, 2011, pp. 309--320 |
| [SVM_BALANCE] | Farquad, MAH et Bose, Indranil, "Prétraitement des données déséquilibrées à l'aide de la machine vectorielle de support", Deisis. Support Syst., 2012, pp. 226-233 |
| [TRIM_SMOTE] | Puntumapo, "Une approche basée sur l'élagage pour rechercher une région précise et généralisée pour le sur-échantillonnage des minorités synthétiques", Advances in Knowledge Discovery and Data Mining, 2012, pp. 371--382 |
| [Smote_rsb] | Rmento, "Smote-RSB *: Une approche de prétraitement hybride basée sur le suréchantillonnage et la sous-échantillonnage pour les ensembles de données déséquilibrés à l'aide de la théorie des ensembles Smote et rugueux", Knowledge and Information Systems, 2012, pp. 245-265 |
| [Prowsyn] | Baru, "Prowesyn: Technique de suréchantillonnage synthétique pondéré par la proximité pour l'apprentissage de l'ensemble de données déséquilibré", Advances in Knowledge Discovery and Data Mining, 2013, pp. 317--328 |
| [SL_GRAPH_SMOTE] | BunkHumpornPat, Chumpol et Subpaiboonkit, Sitthichoke, "Safe Level Graph for Synthetic Minority Over-Sampling Techniques", 13th International Symposium on Communications and Information Technologies, 2013, pp. 570-575 |
| [Nrsboundary_smote] | Feng, Hu et Hang, Li, "Un nouvel algorithme de suréchantillonnage aux limites basé sur le modèle de set de quartier: NRSBoundary-Smote", Mathematical Problems in Engineering, 2013, pp. 10 |
| [Lvq_smote] | Munehiro Nakamura et Yusuke Kajiwara et Atsushi Otsuka et Haruhiko Kimura, "LVQ-Smote - Apprentissage de la minorité synthétique basée sur la quantification des vecteurs sur la technique d'échantillonnage pour les données biomédicales", Biodata Mining, 2013 |
| [Soi_CJ] | Sánchez, Atlántida I. et Morales, Eduardo et Gonzalez, Jésus, "Synthetic Oversampling of Instances Using Clustering", International Journal of Artificial Intelligence Tools, 2013, pp. |
| [ROSE] | Menard, «Formation et évaluation des règles de classification avec des données déséquilibrées», Data Mining and Knowledge Discovery, 2014, pp. 92-122 |
| [Smote_out] | Fajri Koto, "Smote-out, Smote-Cosine et Selected-Smote: An Enhancement Strategy to Gire Decalance in Data Level", 2014 International Conference on Advanced Computer Science and Information System, 2014, pp. 280-284 |
| [Smote_cosine] | Fajri Koto, "Smote-out, Smote-Cosine et Selected-Smote: An Enhancement Strategy to Gire Decbalance in Data Level", 2014 International Conference on Advanced Computer Science and Information System, 2014, pp. 280-284 |
| [Selected_smote] | Fajri Koto, "Smote-out, Smote-Cosine et Selected-Smote: An Enhancement Strategy to Gire Decalance in Data Level", 2014 International Conference on Advanced Computer Science and Information System, 2014, pp. 280-284 |
| [Ln_smote] | Maciejewski, T. et Stefanowski, J., "Extension locale de quartier de Smote pour les données déséquilibrées miniers", 2011 IEEE Symposium on Computational Intelligence and Data Mining (CIDM), 2011, pp. 104-111 |
| [MWMOTE] | Barua, S. et Islam, MM et Yao, X. et Murase, K., "MWMOTE - Technique de suréchantillonnage des minorités pondérées en fonction de Majority pour l'apprentissage des données déséquilibrées", IEEE Transactions on Knowledge and Data Engineering, 2014, pp. 405-425 |
| [PDFOS] | Ming Gao et Xia Hong et Sheng Chen et Chris J. Harris et Emad Khalaf, "PDFOS: Estimation PDF basée sur l'échantillonnage des problèmes à deux classes déséquilibrés", NeuroComputing, 2014, pp. 248 - 259 |
| [Ipade_id] | Victoria López et Isaac Trigueero et Cristóbal J. Carmona et Salvador García et Francisco Herrera, "Adthinging Fandianced Classification with Instance Generation Techniques: Ipade-ID", NeuroCuting, 2014, pp. 15 - 28 |
| [Rwo_sampling] | Zhang, Huaxzhang et Li, Mingfang, "RWO-échantillonnage: une approche aléatoire de sur-échantillonnage de la marche de la classification des données déséquilibrée", Information Fusion, 2014, pp. |
| [Nettoyant] | Almogahed, BA et Kakadiaris, IA, "NEATER: Filtrage des données sur-échantillonnées à l'aide de la théorie des jeux non coopératives", 2014 22e Conférence internationale sur la reconnaissance des modèles, 2014, pp. 1371-1376 |
| [Deago] | Bellinger, C. et Japkowicz, N. et Drummond, C., "Synthetic Oversampling for Advanced Radioactive Threat Detection", 2015 IEEE 14th International Conference on Machine Learning and Applications (ICMLA), 2015, pp. 948-953 |
| [Gazzah] | Gazzah, S. et Hechkel, A. et Essoukri Ben Amara, N., "Une méthode d'échantillonnage hybride pour les données déséquilibrées", 2015 IEEE 12th International Multi-Conference on Systems, Signals Devices (SSD15), 2015, pp. 1-6 |
| [MCT] | Jiang, Liangxiao et Qiu, Chen et Li, Chaoqun, "A Novel Minority Cloning Technique for Cost Sensitive Learning", International Journal of Pattern Recognition and Artificial Intelligence, 2015, pp. 1551004 |
| [ADG] | Pourhabib, A. et Mallick, Bani K. et Ding, Yu, "A Novel Minority Cloning Technique for Cost Sensitive Learning", Journal of Machine Learning Research, 2015, pp. 2695--2724 |
| [Smote_ipf] | José A. Sáez et Julián Luengo et Jerzy Stefanowski et Francisco Herrera, "Smote - IPF: Adresse du problème des exemples bruyants et limites dans la classification déséquilibrée par une méthode de réapprovisionnement avec filtrage", Information Sciences, 2015, pp. 184 - 203 |
| [Kerneladasyn] | Tang, B. et He, H., "Kerneladasyn: Génération de données synthétiques adaptatives basées sur le noyau pour l'apprentissage déséquilibré", 2015 IEEE Congress on Evolutionary Computation (CEC), 2015, pp. 664-671 |
| [MOT2LD] | Xi, "Une méthode de suréchantillonnage de minorités synthétiques basée sur les densités locales dans un espace de faible dimension pour l'apprentissage déséquilibré", Database Systems for Advanced Applications, 2015, pp. 3--18 |
| [V_Synth] | Young, II, William A. et Nykl, Scott L. et Weckman, Gary R. et Chelberg, David M., "Utilisation de diagrammes Voronoi pour améliorer les performances de classification lors de la modélisation de ensembles de données déséquilibrés", Neural Comput. Appl., 2015, pp. 1041--1054 |
| [Oups] | William A. Rivera et Petros Xanthopoulos, "A priori synthétique Méthodes d'échantillonnage pour augmenter la sensibilité à la classification dans les ensembles de données déséquilibrés", Experte Systems with Applications, 2016, pp. 124 - 135 |
| [Smote_d] | Torre, "Smote-D une version déterministe de Smote", Pattern Recognition, 2016, pp. 177--188 |
| [Smote_pso] | Jair Cervantes et Farid Garcia-Lamont et Lisbeth Rodriguez et Asdrúbal López et José Ruiz Castilla et Adrian Trueba, "Méthode PSO pour la classification SVM sur les ensembles de données asymétriques", Neurocomputing, 2017, pp. 187 - 197 |
| [Cure_smote] | M, "Algorithme de cure-smote et algorithme hybride pour la sélection des fonctionnalités et l'optimisation des paramètres basée sur des forêts aléatoires", BMC Bioinformatics, 2017, pp. 169 |
| [Somo] | Georgios Douzas et Fernando Bacao, "Overs échantillonnage d'auto-organisation (SOMO) pour l'apprentissage des données de données déséquilibrée", Experte Systems with Applications, 2017, pp. 40 - 52 |
| [Isomap_hybrid] | Gu, Qiong et Cai, Zhihua et Zhu, Li, "Classification des ensembles de données déséquilibrés en utilisant l'algorithme de rééchantillonnage hybride basé sur les isomap -296 |
| [Ce_smote] | Chen, S. et Guo, G. et Chen, L., "Une nouvelle méthode de sur-échantillonnage basée sur des ensembles de cluster", 2010 IEEE 24th International Conference on Advanced Information Networking and Applications Workshops, 2010, pp. 599-604 |
| [Edge_det_smote] | Kang, Y. et Won, S., "Algorithme de décision de poids pour la technique du suréchantillonnage sur l'apprentissage figurant en classe", ICCAS 2010, 2010, pp. 182-186 |
| [CBSO] | Baru, "Une nouvelle technique de suréchantillonnage des minorités synthétiques pour l'apprentissage des données déséquilibrées", Neural Information Processing, 2011, pp. 735--744 |
| [E_smote] | Deepa, T. et Punithavalli, M., "Une technique de smote pour la sélection des fonctionnalités dans l'ensemble de données déséquilibré à haute dimension", 3e Conférence internationale sur la technologie informatique électronique, 2011, pp. 322-324 |
| [Dbsmote] | BunkHumpornPa, "DBSMOTE: Technique de sur-échantillonnage de la minorité synthétique basée sur la densité", Applied Intelligence, 2012, pp. 664--684 |
| [ASMOBD] | Senzhang Wang et Zhoujun Li et Wenhan Chao et Qinghua Cao, "Application de la technique de sur-échantillonnage adaptative basée sur la densité de données et le SVM sensible au coût à l'apprentissage déséquilibré", la Conférence conjointe internationale de 2012 sur les réseaux de neurones (IJCNN), 2012, pp. 1 2012 -8 |
| [Assembled_smote] | Zhou, B. et Yang, C. et Guo, H. et Hu, J., "Un SVM quasi-linéaire combiné avec une SCOT assemblée pour la classification des données déséquilibrées", The International Conference 2013 sur les réseaux de neurones (IJCNN), 2013, pp. 1-7 |
| [Sdsmote] | Li, K. et Zhang, W. et Lu, Q. et Fang, X., "Une méthode d'amélioration de la classification des données déséquilibrées basée sur les données basée sur le degré de soutien", 2014 Conférence internationale sur l'identification, l'information et les connaissances dans l'Internet des objets, 2014 , pp. 34-38 |
| [Dsmote] | Mahmoudi, S. et Moradi, P. et Akhlaghian, F. et Moradi, R., "Diversity and séparable Metrics in Over-Sampling Technique for Fiquanced Data Classification", 2014 4th International Conference on Computer and Knowledge Engineering (ICCKE), 2014 , pp. 152-158 |
| [G_smote] | Sandhan, T. et Choi, JY, "Gestion des ensembles de données déséquilibrés par un échantillonnage hybride partiellement guidé pour la reconnaissance des modèles", 2014 22e Conférence internationale sur la reconnaissance des modèles, 2014, pp. 1449-1453 |
| [Nt_smote] | Xu, YH et Li, H. et Le, LP et Tian, XY, "Technique de sur-échantillonnage de minorités synthétiques triangulaires de quartier pour la prédiction déséquilibrée sur de petits échantillons de sociétés chinoises du tourisme et de l'hôtelle , 2014, pp. 534-538 |
| [Lee] | Lee, Jaedong et Kim, Noo-Ri et Lee, Jee-Hyong, "Une technique de sur-échantillonnage avec rejet pour l'apprentissage de la classe déséquilibrée", Actes de la 9e Conférence internationale sur la gestion et la communication de l'information omniprésents, 2015, pp. 102: 1 --102: 6 |
| [ESPIONNER] | Dang, XT et Tran, DH et Hirose, O. et Satou, K., "Spy: A Novel Resampling Method for Amélioration des performances de classification dans les données déséquilibrées", 2015 Seventh International Conference on Knowledge and Systems Engineering (KSE), 2015, PP . |
| [Smote_psobat] | Li, J. et Fong, S. et Zhuang, Y., "Optimiser Smote by Metaheuristics with Neural Network and Decision Tree", 2015 3rd International Symposium on Computational and Business Intelligence (ISCBI), 2015, pp. 26-32 |
| [MDO] | Abdi, L. et HaShemi, S., "Pour lutter contre les problèmes déséquilibrés multi-classes au moyen de techniques de sur-échantillonnage", IEEE Transactions on Knowledge and Data Engineering, 2016, pp. 238-251 |
| [Random_smote] | Don, "Une nouvelle approche de sur-échantillonnage: SMOTE RABOUR pour l'apprentissage des ensembles de données déséquilibrés", Knowledge Scienc, 2011, pp. 343--352 |
| [Ismote] | L, "Une nouvelle méthode d'échantillonnage combinée pour les données déséquilibrées", Proceedings of 2013 Chinese Intelligent Automation Conference, 2013, pp. 547--554 |
| [Vis_rst] | Borowsk, "Classification des données déséquilibrées: une nouvelle approche de rééchantillonnage combinant des ensembles Smote et rugueux améliorés polyvalents", Computer Information Systems and Industrial Management, 2016, pp. 31--42 |
| [Gasmote] | Jian, "Un nouvel algorithme pour la classification des données de déséquilibre basé sur l'algorithme génétique amélioré Smote", Arabian Journal for Science and Engineering, 2016, pp. 3255--3266 |
| [A_suwo] | Iman Nekooeimehr et Susana K. Lai-Yuen, "Adaptive Semi-Upidevised Peteted Oversageding (A-Suwo) for Fiquanced DataSets", Experts Systems with Applications, 2016, pp. 405 - 416 |
| [Smote_frst_2t] | Rmento, "Apprentissage déséquilibré flou pour le diagnostic de maintenance du disjoncteur à haute tension: l'algorithme Smote-FRST-2T", Ingénierie Applications de l'intelligence artificielle, 2016, pp. 134 - 139 |
| [Et_smote] | Yun, Jaesub et Ha, Jihyun et Lee, Jong-seok, "Détermination automatique de la taille du quartier dans Smote", Actes de la 10e Conférence internationale sur la gestion et la communication de l'information omniprésents, 2016, pp. 100: 1-100: 8 |
| [NRAS] | William A. Rivera, "Réduction du bruit A priori synthétique sur-échantillonnage pour les ensembles de données déséquilibrés de classe", Information Sciences, 2017, pp. 146 - 161 |
| [AMSCO] | Jinyan Li et Simon Fong et Raymond K. Wong et Victor W. Chu, "Adaptive Multi-Objective Swarm Fusion for Fiquanced Data Classification", Information Fusion, 2018, pp. 1 - 24 |
| [SSO] | Ron, "Technique de suréchantillonnage de sensibilité stochastique pour les données déséquilibrées", Machine Learning and Cybernetics, 2014, pp. 161--171 |
| [Ndo_sampling] | Zhang, L. et Wang, W., "Une méthode de rééchantillonnage pour l'apprentissage par déséquilibre des classes avec des données de crédit", 2011 International Conference of Information Technology, Computer Engineering and Management Sciences, 2011, pp. 393-397 |
| [Dsrbf] | Francisco Fernández-Navarro et César Hervás-Martínez et Pedro Antonio Guérrez, "Une procédure dynamique de sur-échantillonnage basée sur la sensibilité pour les problèmes multi-classes", Pattern Recognition, 2011, pp. 1821 - 1833 |
| [Gaussien_smote] | Hansoo Lee et Jonggeun Kim et Sungshin Kim, "Algorithme Smote Gaussien pour résolution des distributions de classe asymétriques", Int. J. Fuzzy Logic and Intelligent Systems, 2017, pp. 229-234 |
| [kmeans_smote] | Georgios Douzas et Fernando Bacao et Felix dernier, "Amélioration de l'apprentissage déséquilibré à travers une méthode de suréchantillonnage heuristique basée sur K-means and Smote", Information Sciences, 2018, pp. 1 - 20 |
| [Supervisé_smote] | Hu, Jun et He, Xue et Yu, Dong-Jun et Yang, Xi-Bei et Yang, Jing-Yu et Shen, Hong-Bin, "Un nouvel algorithme de surchaitement supervisé avec une application à la prédiction des résidus de liaison aux nucléotides protéine-nucléotide" , PLOS ONE, 2014, pp. 1-10 |
| [SN_SMOTE] | Garc {'i}, "Environ Smote basé sur le quartier pour apprendre des ensembles de données déséquilibrés", Progress in Artificial Intelligence, 2012, pp. 347--362 |
| [CCR] | Koziarski, Michał et Wozniak, Michal, "CCR: A combiné algorithme de nettoyage et de rééchantillonnage pour la classification des données déséquilibrées", International Journal of Applied Mathematics and Computer Science, 2017, pp. 727–736 |
| [ANS] | Siriseriwan, W et Sinapiromsaran, Krung, "Adaptive Neighbour Synthetic Minority Oversalming Technique Under 1nn Outcast Manling", Songklanakarin Journal of Science and Technology, 2017, pp. 565-576 |
| [cluster_smote] | Cieslak, DA et Chawla, NV et Striegel, A., "Combating Decbalance in Network Intrusion Datasets", 2006 IEEE International Conference on Granular Computing, 2006, pp. 732-737 |
| [Syprod] | Kunakornum, I. et Hinthong, W. et Phunchongharn, P., "Une minorité synthétique basée sur un sur-échantillonnage de distribution probabiliste (SYMPROD) pour les ensembles de données déséquilibrés", IEEE Access, 2020, pp. 114692 - 114704 |
| [Smotewb] | Sağlam, F. et Cengiz, MA, "Une nouvelle technique de rééchantillonnage à base de tartre la détection du bruit et la procédure de boosting", Experts Systems with Applications, 2022, pp. 117023 |