
_ _ _
___ _ __ ___ ___ | | _ ___ __ __ __ _ _ __ (_) __ _ _ __ | | _ ___
/ __ || '_ `_ / _ | __ | / _ _____ // _` || '__ || | / _` || '_ | __ |/ __ |
__ | | | | | || (_) || | _ | __ /| _____ | v /| (_ | || | | || (_ || | | || | _ __
| ___/| _ | | _ | | _ | ___/ __ | ___ | _/ __, _ || _ | | _ | __, _ || _ | | _ | __ || ___/
Smote-Varianten für ein unausgewogenes Lernen
Neueste Nachrichten
- 1.0.0 Die Veröffentlichung ist nicht mehr heraus
- Untersamtungstechniken hinzugefügt
- Smotewb fügte hinzu, dank @szghlm
- Vektorisierte Implementierungen für die meisten Techniken zur Steigerung der Leistung
- Ein neu gestalteter und verbesserter Bewertungs- und Modellauswahl -Toolkit
- 100% Testabdeckung
- 10.0 PEP8 -Konformität (durch Pylint)
- polynom_fit_smote auf 4 verschiedene Techniken aufgeteilt
- Symprod wurde als 86. Oversampler hinzugefügt, dank @Intouchkun
Einführung
Das Paket implementiert 86 Varianten der Synthese -Minderheit überabtastungstechnik (SMOTE). Neben den Implementierungen wird ein einfach zu bedienendes Modellauswahl -Framework bereitgestellt, um die schnelle Bewertung von Überabtechnungen auf unsichtbaren Datensätzen zu ermöglichen.
The implemented techniques: [SMOTE] , [SMOTE_TomekLinks] , [SMOTE_ENN] , [Borderline_SMOTE1] , [Borderline_SMOTE2] , [ADASYN] , [AHC] , [LLE_SMOTE] , [distance_SMOTE] , [SMMO] , [polynom_fit_SMOTE] , [Stefanowski ], [Adoms], [safe_level_smote], [msmote], [de_oversampling], [smobd], [sondo], [msyn], [svm_balance], [trim_sb], [smote_rsb], [prowsyn], [Slo_Graph_smote], [Sl_GRAPH_SMOTE], [SMOTE], [SLOW_SMOTE], [SMOTE_RSB], [Prowsyn], [Sl_GRAPH_SMOTE], [ [NrsBoundary_smote], [lvq_smote], [SOI_CJ], [Rose], [smote_out], [smote_cosine], [selected_smote], [ln_smote], [mwmote], [pdfos], [ipade_id], [rwo_sampling], [rwo_sampling], [rwo_sampling], [rwo_sampling], [rwo_sampling], [rwo_sampling] ], [Deago], [gazzah], [mcT], [adg], [smote_ipf], [kerneladasyn], [mot2ld], [v_synth], [OUPS], [smote_d], [smote_pso], [cure_smote], [Somo], [isomap_hybrid], [CE_Smote], [Edge_det_smote], [CBSO], [e_smote], [dbsmote], [asmobd], [montagbled_smote], [sdsmote], [dsmote], [g_smote], [nt_smote], [nt_smote], [nt_smote], [nt_smote], [nt_smote], [nt_smote], [nt_smote], [nt_smote ], [Lee], [Spy], [smote_psobat], [mdo], [random_smote], [ismote], [vis_rst], [gasmote], [a_suwo], [smote_frst_2t], [und_smote], [nras], [nras], [AMSCO], [SSO], [ndo_sampling], [dsrbf], [gaußsian_smote], [kmeans_smote], [überlebte_smote], [sn_smote], [ccr], [Ans], [cluster_smote], [Symprod], [Symprod]. ]
Vergleich und Bewertung
Für einen detaillierten Vergleich und eine Bewertung aller implementierten Techniken siehe link_to_comparison_paper
Zitat
Wenn Sie dieses Paket in Ihren Recherchen verwenden, zitieren Sie bitte die folgenden Papiere.
Preprint beschreibt das Paket siehe link_to_package_paper
Bibtex für das Paket:
@article { smote-variants ,
author = { Gy"orgy Kov'acs } ,
title = { smote-variants: a Python Implementation of 85 Minority Oversampling Techniques } ,
journal = { Neurocomputing } ,
note = { (IF-2019=4.07) } ,
volume = { 366 } ,
pages = { 352--354 } ,
year = { 2019 } ,
group = { journal } ,
code = { https://github.com/analyticalmindsltd/smote_variants } ,
doi = { 10.1016/j.neucom.2019.06.100 }
} Für die Vorabdruck der vergleichenden Studie siehe link_to_evaluation_paper
Bibtex für den Vergleich und die Bewertung:
@article { smote-comparison ,
author = { Gy"orgy Kov'acs } ,
title = { An empirical comparison and evaluation of minority oversampling techniques on a large number of imbalanced datasets } ,
journal = { Applied Soft Computing } ,
note = { (IF-2019=4.873) } ,
volume = { 83 } ,
pages = { 105662 } ,
year = { 2019 } ,
link = { https://www.sciencedirect.com/science/article/pii/S1568494619304429 } ,
group = { journal } ,
code = { https://github.com/analyticalmindsltd/smote_variants } ,
doi = { 10.1016/j.asoc.2019.105662 }
} Installation
Das Paket kann auf die übliche Weise von GitHub kloniert werden, und die neueste stabile Version ist auch im PYPI -Repository erhältlich:
pip install smote-variants
Dokumentation
- Eine detaillierte Dokumentation finden Sie unter http://smote-variants.readthedocs.io.
- Für ein YouTube -Tutorial -Check https://www.youtube.com/watch?v=gsk7akqpm60
Best Practices
Normalisierung/Standardisierung/Skalierung/Feature -Auswahl
Die meisten der überabtastenden Techniken arbeiten im euklidischen Raum, der durch die Attribute impliziert wird. Daher ist es äußerst wichtig, die Attribute angemessen zu normalisieren/zu skalieren. Ohne Kenntnis der Bedeutung von Attributen ist die Normalisierung/Standardisierung ein guter ersten Versuch. Die Skalierung der Attributbereiche ist ebenfalls angemessen. Alternativ kann die Auswahl der Feature -Teilmenge auch die Ergebnisse verbessern, indem die Arbeiten im am besten geeigneten Unterraum überabtastet werden.
Modellauswahl für die Anzahl der zu generierten Proben
Die Klassifizierung nach Überabtastung ist sehr empfindlich gegenüber der Anzahl der generierten Minderheitenproben. Das Ausgleich des Datensatzes ist selten die richtige Wahl, da die meisten Klassifikatoren am effizientesten arbeiten, wenn die Dichte positiver und negativer Proben in der Nähe der Entscheidungsgrenze ungefähr gleich ist. Wenn die Verteiler der positiven und negativen Klassen annähernd nicht die gleiche Größe haben, kann das Ausgleich des Datensatzes dies nicht erreichen. Darüber hinaus kann es in bestimmten Regionen sogar die Situation zurückversetzen: Wenn der Verteiler der Minderheitenklasse viel kleiner ist als die der Mehrheitsklasse, wird das Ausgleich der Minderheitenklasse in den lokalen Umgebungen entlang der Entscheidungsgrenze in die Mehrheit verwandeln.
Die Lösung besteht darin, die Modellauswahl für die Anzahl der generierten Proben anzuwenden. Fast alle im Paket `smote-variants` implementierten Techniken haben einen Parameter namens `proportion` . Dieser Parameter steuert, wie viele Proben generiert werden sollen, nämlich die Anzahl der generierten Minderheitenproben ist `proportion*(N_maj - N_min)` Es wird dringend empfohlen, eine kreuzvalidierte Modellauswahl für einen Bereich wie `proportion` = 0,1, 0,2, 0,5, 1,0, 2,0, 5,0 auszuführen.
Stichprobenverbrauch
Binärer Überabtastung
import smote_variants as sv
import imbalanced_databases as imbd
dataset = imbd . load_iris0 ()
X , y = dataset [ 'data' ], dataset [ 'target' ]
oversampler = sv . distance_SMOTE ()
# X_samp and y_samp contain the oversampled dataset
X_samp , y_samp = oversampler . sample ( X , y )
Multiclas -Überabtastung
import smote_variants as sv
import sklearn . datasets as datasets
dataset = datasets . load_wine ()
X , y = dataset [ 'data' ], dataset [ 'target' ]
oversampler = sv . MulticlassOversampling ( oversampler = 'distance_SMOTE' ,
oversampler_params = { 'random_state' : 5 })
# X_samp and y_samp contain the oversampled dataset
X_samp , y_samp = oversampler . sample ( X , y )Auswahl des besten Oversamplers
from sklearn . neighbors import KNeighborsClassifier
from sklearn . tree import DecisionTreeClassifier
import smote_variants as sv
import sklearn . datasets as datasets
dataset = datasets . load_breast_cancer ()
dataset = { 'data' : dataset [ 'data' ],
'target' : dataset [ 'target' ],
'name' : 'breast_cancer' }
classifiers = [( 'sklearn.neighbors' , 'KNeighborsClassifier' , {}),
( 'sklearn.tree' , 'DecisionTreeClassifier' , {})]
oversamplers = sv . queries . get_all_oversamplers ( n_quickest = 2 )
os_params = sv . queries . generate_parameter_combinations ( oversamplers ,
n_max_comb = 2 )
# samp_obj and cl_obj contain the oversampling and classifier objects which give the
# best performance together
samp_obj , cl_obj = sv . evaluation . model_selection ( dataset = dataset ,
oversamplers = os_params ,
classifiers = classifiers ,
validator_params = { 'n_splits' : 2 ,
'n_repeats' : 1 },
n_jobs = 5 )
# training the best techniques using the entire dataset
X_samp , y_samp = samp_obj . sample ( dataset [ 'data' ],
dataset [ 'target' ])
cl_obj . fit ( X_samp , y_samp )Integration mit Sklearn -Pipelines
import smote_variants as sv
import imblearn . datasets as imb_datasets
from sklearn . model_selection import train_test_split , GridSearchCV
from sklearn . pipeline import Pipeline
from sklearn . preprocessing import StandardScaler
from sklearn . neighbors import KNeighborsClassifier
libras = imb_datasets . fetch_datasets ()[ 'libras_move' ]
X , y = libras [ 'data' ], libras [ 'target' ]
oversampler = ( 'smote_variants' , 'MulticlassOversampling' ,
{ 'oversampler' : 'distance_SMOTE' , 'oversampler_params' : {}})
classifier = ( 'sklearn.neighbors' , 'KNeighborsClassifier' , {})
# Constructing a pipeline which contains oversampling and classification
# as the last step.
model = Pipeline ([( 'scale' , StandardScaler ()),
( 'clf' , sv . classifiers . OversamplingClassifier ( oversampler , classifier ))])
model . fit ( X , y )Integration mit Sklearn Grid -Suche
import smote_variants as sv
import imblearn . datasets as imb_datasets
from sklearn . model_selection import train_test_split , GridSearchCV
from sklearn . pipeline import Pipeline
from sklearn . preprocessing import StandardScaler
from sklearn . neighbors import KNeighborsClassifier
libras = imb_datasets . fetch_datasets ()[ 'libras_move' ]
X , y = libras [ 'data' ], libras [ 'target' ]
oversampler = ( 'smote_variants' , 'MulticlassOversampling' ,
{ 'oversampler' : 'distance_SMOTE' , 'oversampler_params' : {}})
classifier = ( 'sklearn.neighbors' , 'KNeighborsClassifier' , {})
# Constructing a pipeline with oversampling and classification as the last step
model = Pipeline ([( 'scale' , StandardScaler ()),
( 'clf' , sv . classifiers . OversamplingClassifier ( oversampler , classifier ))])
param_grid = { 'clf__oversampler' :[( 'smote_variants' , 'distance_SMOTE' , { 'proportion' : 0.5 }),
( 'smote_variants' , 'distance_SMOTE' , { 'proportion' : 1.0 }),
( 'smote_variants' , 'distance_SMOTE' , { 'proportion' : 1.5 })]}
# Specifying the gridsearch for model selection
grid = GridSearchCV ( model ,
param_grid = param_grid ,
cv = 3 ,
n_jobs = 1 ,
verbose = 2 ,
scoring = 'accuracy' )
# Fitting the pipeline
grid . fit ( X , y ) Beitrag
Fühlen Sie sich frei, weitere überabtastende Techniken zu implementieren, und lassen Sie uns die Codes besprechen, sobald die Pull -Anfrage fertig ist!
Referenzen
| [SMOTE] | Chawla, NV und Bowyer, KW und Hall, Lo und Kegelmeyer, WP, "{Smote}: Synthetische Minderheit Überabtechnungstechnik", Journal of Artificial Intelligence Research, 2002, S. 321—357 |
| [Smote_tomklinks] | Batista, Gustavo Eapa und Prati, Ronaldo C. und Monard, Maria Carolina, "Eine Studie über das Verhalten verschiedener Methoden zum Ausgleich von Trainingsdaten für maschinelles Lernen", Sigkdd Explor. Newsl., 2004, S. 20-29 |
| [Smote_enn] | Batista, Gustavo Eapa und Prati, Ronaldo C. und Monard, Maria Carolina, "Eine Studie über das Verhalten verschiedener Methoden zum Ausgleich von Trainingsdaten für maschinelles Lernen", Sigkdd Explor. Newsl., 2004, S. 20-29 |
| [Borderline_smote1] | Ha, "Borderline-Smote: Eine neue Überprüfungsmethode im Ungleichgewichtsdatensätze", Fortschritte in Intelligent Computing, 2005, S. 878-887 |
| [Borderline_Smote2] | Ha, "Borderline-Smote: Eine neue Überprüfungsmethode im Ungleichgewichtsdatensätze", Fortschritte in Intelligent Computing, 2005, S. 878-887 |
| [Adasyn] | Er, H. und Bai, Y. und Garcia, EA und Li, S., "{Adasyn}: Adaptiver synthetischer Stichprobenansatz für unausgeglichenes Lernen", Proceedings of Ijcnn, 2008, S. 1322-1328 |
| [AHC] | Gilles Cohen und Mélanie Hilario und Hugo Sax und Stéphane Hugonnet sowie Antoine Geissbuhler, "Lernen aus unausgeglichenen Daten zur Überwachung der nosokomialen Infektion", künstliche Intelligenz in der Medizin, 2006, S. 7 - 18 |
| [Lle_smote] | Wang, J. und Xu, M. und Wang, H. und Zhang, J., "Klassifizierung unausgeglichener Daten unter Verwendung des SMOTE -Algorithmus und der lokal linearen Einbettung", 8. Internationale Konferenz der Internationalen Konferenz für Signalverarbeitung 2006, 2006, S. |
| [Distanz_Smote] | De la Calleja, J. und Fuentes, O., "Eine fernabbasierte Überprüfungsmethode zum Lernen aus unausgeglichenen Datensätzen", Proceedings of the Twentieth International Florida Artificial Intelligence, 2007, S. 634—635 |
| [SMMO] | De la Calleja, Jorge und Fuentes, Olac und González, Jesús, "Auswählen von Beispielen aus Minderheiten aus falsch klassifizierten Daten zum Überampfung". , Proceedings der einundzwanzigsten internationalen Florida Artificial Intelligence Research Society Conference, 2008, S. 276-281 |
| [polynom_fit_smote] | Gazzah, S. und Amara, Neb, "Neue Überabtastungsansätze auf der Basis von Polynomanpassung für unausgeglichene Datensätze", 2008 Der achte IAPR International Workshop on Dokumentanalysesysteme, 2008, S. 677-684 |
| [Stefanowski] | Stefanowski, Jerzy und Wilk, Szymon, "Selektive Vorverarbeitung unausgeglichener Daten zur Verbesserung der Klassifizierungsleistung", Proceedings der 10. Internationalen Konferenz über Data Warehousing and Knowledge Discovery, 2008, S. 283—292 |
| [Adoms] | Tang, S. und Chen, S., "Der Erzeugungsmechanismus synthetischer Minderheitenklassen Beispiele", 2008 Internationale Konferenz über Informationstechnologie und Anwendungen in Biomedizin, 2008, S. 444-447 |
| [Safe_level_smote] | Bunkhumpornpat, Chumphol und Sinapiromsaran, Krung und Lursinsap, Chidchanok, "Safe-Level-Smote: Safe-Level-Synthese-Minderheit Überabtastungstechnik für die Behandlung des unausgeglichenen Problems der Klasse", Verfahren der 13. Pazifik-Asien-Konferenz zu Fortschritten bei Wissens Discovery und Data Mining, 2009, S. 475-482 |
| [Msmote] | Hu, Shengguo und Liang, Yanfeng und MA, Lintao und He, Ying, "MSMOTE: Verbesserung der Klassifizierungsleistung Wenn Trainingsdaten nicht ausgleichet werden", Proceedings of the 2009 International Workshop zu Informatik und Engineering - Band 02, 2009, S. 13, 13, 13, 13, 13, 13, 13, 13 --17 |
| [De_OverSamping] | Chen, L. und Cai, Z. und Chen, L. und Gu, Q., "Ein neuartiger Differential-Evolution-Clustering-Hybrid-Resampling-Algorithmus für unausgewogene Datensätze", 2010 der dritte internationale Konferenz über Wissensdedeckung und Data Mining, 2010, S. 81-85 |
| [Smobd] | CAO, Q. und Wang, S., "Anwendung von Überprüfungstechniken auf der Grundlage der Datendichte und des Kostenempfindlichen SVM auf unausgewogenes Lernen", 2011 International Conference on Information Management, Innovation Management und Industrial Engineering, 2011, S. 543-54888 |
| [Sundo] | Cateni, S. und Colla, V. und Vannucci, M., "Neuartige Resampling-Methode zur Klassifizierung unausgeglichener Datensätze für industrielle und andere reale Probleme", 11. Internationale Konferenz für intelligente Systeme für intelligente Systeme, Anwendungen, 2011, S. 402-407 |
| [Msyn] | FA, "Randbasierte Überabtastungsmethode zum Lernen aus unausgeglichenen Datensätzen", Fortschritte bei der Erkennung von Wissen und Data Mining, 2011, S. 309-320 |
| [SVM_Balance] | Farquad, Mah und Bose, Indranil, "Vorverarbeitungsdaten mit Support Vector Machine", Decis. Support Syst., 2012, S. 226--233 |
| [Trim_smote] | Puntumapo, "Ein Schnittansatz zur Suche nach präziser und verallgemeinerter Region für die Überprüfung der synthetischen Minderheiten", Fortschritte in der Wissenskondeckung und Data Mining, 2012, S. 371–382 |
| [Smote_rsb] | Ramento, "SMOTE-RSB*: Ein hybrider Vorverarbeitungsansatz basierend auf Überabtastung und Unterabtastung für hohe unausgeglichene Datensätze mit SMOTE und Rough-Sets Theorie", Wissens- und Informationssysteme, 2012, S. 245--265 |
| [Prowsyn] | Baru, "Prowsyn: Proximity gewichtete synthetische Überabtastungstechnik für unausgeglichenes Datensatzlernen", Fortschritte bei der Erkennung von Wissen und Data Mining, 2013, S. 317-328 |
| [Sl_graph_smote] | Bunkhumpornpat, Chumpol und Subpaboonkit, Sittthichoke, "Safe Level-Diagramm für Überampling-Techniken der synthetischen Minderheit", 13. Internationales Symposium für Kommunikationstechnologien, 2013, S. 570-575 |
| [Nrsboundary_smote] | Feng, Hu und Hang, LI, "Ein neuartiger Grenz-Überabtastungsalgorithmus basierend auf dem Roh-Set-Modell der Nachbarschaft: NRSBoundary-Smote", Mathematical Problems in Engineering, 2013, S. 10 |
| [Lvq_smote] | Munehiro Nakamura und Yusuke Kajiwara und Atsushi Otsuka und Haruhiko Kimura, "LVQ-Smote-Lernvektor quantisierungsbasierte synthetische Minderheit über-Sampling-Technik für biomedizinische Daten", Biodeata Mining, 2013 |
| [SOI_CJ] | Sánchez, Atlántida I. und Morales, Eduardo und Gonzalez, Jesus, "synthetische Überabtastung von Instanzen mit Clustering", International Journal of Artificial Intelligence Tools, 2013, S. |
| [ROSE] | Menard, "Schulung und Bewertung der Klassifizierungsregeln mit unausgewogenen Daten", Data Mining and Knowledge Discovery, 2014, S. 92-122 |
| [Smote_out] | Fajri Koto, "Smote-Out, Smote-Cosine und Selected-Smote: Eine Verbesserungsstrategie zur Behandlung von Ungleichgewicht in der Data-Ebene", Internationale Konferenz 2014 über fortgeschrittenes Informatik und Informationssystem, 2014, S. 280-284 |
| [Smote_Cosine] | Fajri Koto, "Smote-Out, Smote-Cosine und Selected-Smote: Eine Verbesserungsstrategie zur Behandlung von Ungleichgewicht in der Data-Ebene", Internationale Konferenz 2014 über fortgeschrittenes Informatik und Informationssystem, 2014, S. 280-284 |
| [Selected_Smote] | Fajri Koto, "Smote-Out, Smote-Cosine und Selected-Smote: Eine Verbesserungsstrategie zur Behandlung von Ungleichgewicht in der Data-Ebene", Internationale Konferenz 2014 über fortgeschrittenes Informatik und Informationssystem, 2014, S. 280-284 |
| [Ln_smote] | Maciejewski, T. und Stefanowski, J., "Lokale Nachbarschaftserweiterung von SMOTE for Mining Inflalanced Data", 2011 IEEE-Symposium für Computational Intelligence and Data Mining (CIDM), 2011, S. 104-111 |
| [Mwmote] | Barua, S. und Islam, MM und Yao, X. und Murase, K., "MWMOTE-MOSE-MENTION-Minderheit Überabtastungstechnik für unausgeglichenes Datensatzlernen", IEEE-Transaktionen zu Wissens- und Daten Engineering, 2014, S. 405-425 |
| [PDFOS] | Ming Gao und Xia Hong sowie Sheng Chen und Chris J. Harris sowie Emad Khalaf, "PDFOS: PDF-Schätzung basieren übertragende Probleme für unausgeglichene Probleme mit zwei Klassen", Neurocomputing, 2014, S. 248-259 |
| [Ipade_id] | Victoria López und Isaac Triguero und Cristóbal J. Carmona und Salvador García und Francisco Herrera, "mit der unausgeglichenen Klassifizierung mit Instanzgenerierungstechniken: Ipade -ID", Neurocomputing, 2014, S. 15 - 28 |
| [RWO_sampling] | Zhang, Huaxzhang und Li, Mingfang, "RWO-Sampling: Ein zufälliger Spaziergang übertragender Ansatz zur unausgeglichenen Datenklassifizierung", Information Fusion, 2014, pp. |
| [Teater] | Almogahed, BA und Kakadiaris, IA, "Kerner: Filterung von übertasteten Daten unter Verwendung der nicht kooperativen Spieltheorie", 2014 22. Internationale Konferenz zur Mustererkennung, 2014, S. 1371-1376 |
| [Deago] | Bellinger, C. und Japkowicz, N. und Drummond, C., "Synthetic Oversampling for Advanced Radioactive Threat Detection", 2015 IEEE 14. Internationale Konferenz für maschinelles Lernen und Anwendungen (ICMLA), 2015, S. 948-953 |
| [Gazzah] | Gazzah, S. und Hechkel, A. und Esoukri Ben Amara, N. |
| [MCT] | Jiang, Liangxiao und Qiu, Chen und Li, Chaoqun, "Eine neuartige Klonierungstechnik für das Kostensensitive Lernen", International Journal of Mustererkennung und künstliche Intelligenz, 2015, S. 1551004 |
| [ADG] | Pourhabib, A. und Mallick, Bani K. und Ding, Yu, "Eine neuartige Klonierungstechnik für das Kostensensitive Lernen", Journal of Machine Learning Research, 2015, S. 2695-2724 |
| [Smote_ipf] | José A. Sáez und Julián Luengo sowie Jerzy Stefanowski und Francisco Herrera, "Smote -IPF: Das Problem der lauten und grenzüberschreitenden Beispiele in der unausgeglichenen Klassifizierung durch eine Neuabtastmethode mit Filterung", Information Sciences, 2015, S. 184 - 203 |
| [Kerneladasyn] | Tang, B. und He, H., "Kerneladasyn: Kernel-basierte adaptive synthetische Datenerzeugung für unausgewogenes Lernen", 2015 IEEE Congress on Evolutionary Computation (CEC), 2015, S. 664-671 |
| [MOT2LD] | XI, "Eine Synthetic-Minderheit Überabtastungsmethode basiert auf lokalen Dichten im niedrigdimensionalen Raum für unausgewogenes Lernen", Datenbanksysteme für fortschrittliche Anwendungen, 2015, S. 3-18 |
| [V_SYNTH] | Young, II, William A. und Nykl, Scott L. und Weckman, Gary R. und Chelberg, David M., "Verwenden von Voronoi -Diagrammen zur Verbesserung der Klassifizierungsleistungen bei der Modellierung unausgeglichener Datensätze", Neural Comput. Appl., 2015, S. 1041-1054 |
| [OUPS] | William A. Rivera und Petros Xanthopoulos, "a priori synthetische Überabtastungsmethoden zur Erhöhung der Klassifizierungsempfindlichkeit in unausgeglichenen Datensätzen", Expert Systems with Applications, 2016, S. 124 - 135 |
| [Smote_d] | Torre, "SMOTE-D Eine deterministische Version von Smote", Mustererkennung, 2016, S. 177-- 188 |
| [Smote_pso] | Jair Cervantes und Farid Garcia-Lamont und Lisbeth Rodriguez und Asdrúbal López sowie José Ruiz Castilla und Adrian Trueba, "PSO-basierte Methode zur SVM-Klassifizierung auf verzerrten Datensätzen", Neurocomputing, 2017, S. 187-197 |
| [Cure_Smote] | M, "Cure-Smote-Algorithmus und Hybridalgorithmus für die Auswahl der Merkmale und die Parameteroptimierung basierend auf zufälligen Wäldern", BMC Bioinformatics, 2017, S. 169 |
| [Somo] | Georgios Douzas und Fernando Bacao, "Selbstorganisierende Karte Überabtastung (SOMO) für unausgeglichenes Datensatzlernen", Expert Systems with Applications, 2017, S. 40 - 52 |
| [Isomap_hybrid] | Gu, Qiong und Cai, Zhihua und Zhu, LI, "Klassifizierung unausgeglichener Datensätze unter Verwendung des Hybrid-Neuabtastungsalgorithmus basierend auf Isomap", Proceedings des 4. Internationalen Symposiums über Fortschritte in Berechnung und Intelligenz, 2009, S. 287- 287- -296 |
| [CE_Smote] | Chen, S. und Guo, G. und Chen, L., "Eine neue Überprüfungsmethode basierend auf Cluster-Ensembles", 2010 IEEE 24. Internationale Konferenz über fortgeschrittene Informationsnetzwerke und Anwendungen Workshops, 2010, S. 599-604 |
| [Edge_Det_Smote] | Kang, Y. und Won, S., "Gewichtsentscheidungsalgorithmus für Überabtastungstechnik zum Erlernungsunterricht", ICCAS 2010, 2010, S. 182-186 |
| [CBSO] | Baru, "Eine neuartige Technik für synthetische Minderheiten überabtastung für das Lernen von Datensatzen", Neural Information Processing, 2011, S. 735-744 |
| [E_smote] | Deepa, T. und Punithavalli, M., "Eine E-Smote-Technik für die Auswahl der Merkmale im hochdimensionalen unausgeglichenen Datensatz", 2011 3rd International Conference on Electronics Computer Technology, 2011, S. 322-324 |
| [Dbsmote] | Bunkhumpornpa, "DBSMote: Dichte-basierte synthetische Minderheit Überabtechnungstechnik", Applied Intelligence, 2012, S. 664-684 |
| [ASMOBD] | Senzhang Wang and Zhoujun Li and Wenhan Chao and Qinghua Cao, "Applying adaptive over-sampling technique based on data density and cost-sensitive SVM to imbalanced learning" , The 2012 International Joint Conference on Neural Networks (IJCNN), 2012, pp. 1 -8 |
| [Montagbled_smote] | Zhou, B. und Yang, C. und Guo, H. und Hu, J., "Eine quasi lineare SVM in Kombination mit zusammengebautem Smote für die Klassifizierung von Ungleichgewicht", der Internationalen gemeinsamen Konferenz für neuronale Netze 2013 (IJCNN), 2013, 2013,, S. 1-7 |
| [SDSmote] | Li, K. und Zhang, W. und Lu, Q. und Fang, X., "Eine verbesserte SMOTE -Methode für unausgeglichener Datenklassifizierungsmethoden auf der Grundlage des Support -Abschlusses", 2014 Internationaler Konferenz zu Identifizierung, Informationen und Wissen im Internet der Dinge, 2014 , S. 34-38 |
| [Dsmote] | Mahmoudi, S. und Moradi, P. und Akhlaghian, F. und Moradi, R., "Vielfalt und trennbare Metriken in der Überabtastungstechnik für die Klassifizierung für unausgewogene Daten", 4. Internationale Konferenz 2014 über Computer- und Knowledge Engineering (ICCKE), 2014 , S. 152-158 |
| [G_smote] | Sandhan, T. und Choi, JY, "Umgang mit unausgewogenen Datensätzen durch teilweise geführte Hybridprobenahme für die Mustererkennung", 2014 22. Internationale Konferenz zur Mustererkennung, 2014, S. 1449-1453 |
| [Nt_smote] | Xu, YH und Li, H. und LP, LP und Tian, XY, "Dreiecksynthetische Minderheiten übertragende Technik für unausgewogene Vorhersage für kleine Stichproben chinesischer Tourismus- und Hospitality-Unternehmen", 2014 Seventh International Joint Conference über Computerwissenschaften und Optimierung , 2014, S. 534-538 |
| [Lee] | Lee, Jaedong und Kim, Noo-ri und Lee, Jee-Hyong, "Eine Überabtechnungstechnik mit Ablehnung für unausgeglichenes Klassenlernen", Proceedings der 9. Internationalen Konferenz über allgegenwärtiges Informationsmanagement und Kommunikation, 2015, S. 102: 1 -102: 6 |
| [SPION] | Dang, XT und Tran, DH und Hirose, O. und Satou, K., "Spy: Eine neuartige Resampling -Methode zur Verbesserung der Klassifizierungsleistung in unausgeglichenen Daten", 2015 Seventh International Conference on Knowledge Engineering (KSE), 2015, PP 280-285 |
| [Smote_psobat] | Li, J. und Fong, S. und Zhuang, Y., "Optimierung von Smote durch Metaheuristik mit neuronalen Netzwerk und Entscheidungsbaum", 3rd International Symposium on Computational and Business Intelligence (ISCBI), 2015, S. 26-32 |
| [MDO] | Abdi, L. und Hashemi, S., "Um mit mehreren Klassen durch Überabtechnungstechniken zu bekämpfen", IEEE-Transaktionen zu Wissen und Daten Engineering, 2016, S. 238-251 |
| [Random_Smote] | Don, "Ein neuer Überampling-Ansatz: Zufälliger Smote zum Lernen aus unausgeglichenen Datensätzen", Knowledge Scienc, 2011, S. 343-352 |
| [Ismote] | L, "Eine neue Kombinationstichprobenmethode für unausgewogene Daten", Proceedings of 2013 Chinese Intelligent Automation Conference, 2013, S. 547-554 |
| [Vis_rst] | Borowsk, "Ungleichartige Datenklassifizierung: Ein neuartiger Neuabtastansatz, der vielseitige SMOTE- und Rough-Sets kombiniert", Computer Information Systems and Industrial Management, 2016, S. 31-42 |
| [Gasmote] | Jian, "Ein neuartiger Algorithmus für die Ungleichgewichtsdatenklassifizierung auf der Grundlage des genetischen Algorithmus verbessert Smote", Arabian Journal for Science and Engineering, 2016, S. 3255-3266 |
| [A_suwo] | Iman Nekooeimehr und Susana K. Lai-Yuen, "Adaptive halb nicht übertriebene gewichtete Überabtastung (A-suwo) für unausgeglichene Datensätze", Expert Systems with Applications, 2016, S. 405-416 |
| [Smote_frst_2t] | Ramento, "Fuzzy-Rough Ungleichgewicht für die Diagnose von Hochspannungsschalter Wartung: Der Smote-FRST-2T-Algorithmus", Engineering Applications of Artificial Intelligence, 2016, S. 134-139 |
| [Und_smote] | Yun, Jaesub und HA, Jihyun und Lee, Jong-Seok, "Automatische Bestimmung der Nachbarschaftsgröße in Smote", Proceedings der 10. Internationalen Konferenz über allgegenwärtiges Informationsmanagement und Kommunikation, 2016, S. 100: 1-100: 8 |
| [NRAS] | William A. Rivera, "Lärmreduktion a priori synthetischer Überprüfung für unausgeglichene Datensätze der Klassen", Information Sciences, 2017, S. 146 - 161 |
| [AMSCO] | Jinyan Li und Simon Fong und Raymond K. Wong und Victor W. Chu, "Adaptive Multi -Objektive -Schwarmfusion für die Klassifizierung für unausgewogene Daten", Information Fusion, 2018, S. 1 - 24 |
| [SSO] | Ron, "Stochastische Empfindlichkeit Überabtastungstechnik für unausgewogene Daten", maschinelles Lernen und Kybernetik, 2014, S. 161-171 |
| [Ndo_sampling] | Zhang, L. und Wang, W., "Eine Neuabtastmethode für das Lernen von Unterrichtsdaten für Klassen mit Kreditdaten", 2011 Internationale Konferenz für Informationstechnologie, Computertechnik und Management Sciences, 2011, S. 393-397 |
| [DSRBF] | Francisco Fernández-Navarro und César Hervás-Martínez und Pedro Antonio Gutiérrez, "Ein dynamisches Überprüfungsverfahren auf der Grundlage der Empfindlichkeit für Probleme mit mehreren Klassen", Mustererkennung, 2011, S. 1821-1833 |
| [GAUSSIAN_SMOTE] | Hansoo Lee und Jonggeun Kim und Sungshin Kim, "Gaußscher Smote-Algorithmus zur Lösung von verzerrten Klassenverteilungen", int. J. Fuzzy Logic and Intelligent Systems, 2017, S. 229-234 |
| [kmeans_smote] | Georgios Douzas und Fernando Bacao und Felix zuletzt, "Verbesserung des unausgeglichenen Lernens durch eine heuristische Überabtastungsmethode basierend auf K -Means und Smote", Information Sciences, 2018, S. 1 - 20 |
| [Überlebte_Smote] | Hu, Jun und er, Xue und Yu, Dong-Jun und Yang, Xi-be und Yang, Jing-yu und Shen, Hong-Bin, "Ein neuer überwachter Überabtastungsalgorithmus mit Anwendung auf Protein-Nucleotid-Bindungsrest-Vorhersage" Vorhersage " , PLoS One, 2014, S. 1-10 |
| [Sn_smote] | Garc {'i}, "umliegende Nachbarschafts-Smote zum Lernen aus unausgeglichenen Datensätzen", Fortschritt in der künstlichen Intelligenz, 2012, S. 347-362 |
| [CCR] | Koziarski, Michał und Wozniak, Michal, "CCR: Ein kombinierter Reinigungs- und Resampling -Algorithmus für die Klassifizierung für unausgewogene Daten", International Journal of Applied Mathematics and Information, 2017, S. 727–736 |
| [Ans] | Siriseriwan, W und Sinapiromsaran, Krung, "Adaptive Neighbor Synthetic Minderheit Überabtechnik unter 1nn Outcast-Handling", Songklanakarin Journal of Science and Technology, 2017, S. 565-576 |
| [cluster_smote] | Cieslak, DA und Chawla, NV und Striegel, A., "Ungleichgewicht in Netzwerkintrusionsdatensätzen", 2006 IEEE International Conference on Granular Computing, 2006, S. 732-737 |
| [Symprod] | Kunakorntum, I. und Hinthong, W. und Phunchongharn, P., "Eine synthetische Minderheit, die auf der probabilistischen Verteilung (Symbol) für unausgeglichene Datensätze basiert", IEEE Access, 2020, S. 114692 - 114704 |
| [SMOTEWB] | Sağlam, F. und Cengiz, MA, "Eine neuartige SMOTE-basierte Resampling-Technik-Erkennung von Rauschen und das Boosting-Verfahren", Expertensysteme mit Anwendungen, 2022, S. 117023 |