ML Papiere
Dieses Repo enthält Notizen und kurze Zusammenfassungen einiger ML -verwandter Artikel, auf die ich begegne, die von Subjekten organisiert sind, und die Zusammenfassungen erfolgen in Form von PDFs.
Selbstüberwachter und kontrastives Lernen
- Selbstübersichtes relationales Denken für das Lernen von Repräsentation (2020): [Papier] [Notizen]
- Große selbstüberwachende Modelle sind starke halbüberwachende Lernende (2020) [Papier] [Notizen]
- Debias kontrastives Lernen (2020) [Papier] [Notizen]
- Selfie: Selbsterdurchschnittliche Vorbereitung für die Bildeinbettung (2019): [Papier] [Notizen]
- Selbstbekannte Darstellung von Repräsentation durch Rotationsfunktion Entkopplung (2019): [Papier] [Notizen]
- Überprüfung selbst überprüfter visueller Repräsentation Learning (2019): [Papier] [Notizen]
- AET vs. AED: Unbeaufsichtigtes Erlernen von Repräsentationen durch automatisch kodierende Transformationen (2019): [Papier] [Notizen]
- Steigerung des selbstsütigen Lernens durch Knowledge Transfer (2018): [Papier] [Notizen]
- Self-Supervised-Feature-Lernen durch Lernen, Artefakte zu erkennen (2018): [Papier] [Notizen]
- Unüberwachungsübergreifendes Lernen von Repräsentationen durch Vorhersage von Bildrotationen (2018): [Papier] [Notizen]
- Cross Pixel Optical-Flow-Ähnlichkeit für das selbstbewertete Lernen (2018): [Papier] [Notizen]
- Multi-Task-Selbstversorgung visuelles Lernen (2017): [Papier] [Notizen]
- AutoCodierer von Split-Hirns: unbeaufsichtigtes Lernen durch Cross-Channel Prediction (2017): [Papier] [Notizen]
- Colorization als Proxy -Aufgabe für visuelles Verständnis (2017): [Papier] [Notizen]
- Unbeaufsichtigtes Lernen von visuellen Darstellungen durch Lösen von Puzzles (2017): [Papier] [Notizen]
- Unüberwachte visuelle Repräsentation Lernen nach Kontextvorhersage (2016): [Papier] [Notizen]
- Buntes Bildfarbisation (2016): [Papier] [Notizen]
- Lernen visueller Gruppen aus Co-Auftreten im Raum und Zeit (2015): [Papier] [Notizen]
- Diskriminatives unbeaufsichtigtes Lernen von Merkmalen mit exemplarer Faltungsnetzwerke (2015): [Papier] [Notizen]
Semi-betriebliches Lernen
- Negative Probenahme im semi-übersichtlichen Lernen (2020): [Papier] [Notizen]
- Zeitkonsistente Selbst-Supervision für halbübergreifendes Lernen (2020): [Papier] [Notizen]
- Dual Student: Die Grenzen des Lehrers im semi-sachlichen Lernen (2019) durchbrechen: [Papier] [Notizen]
- S4L: Selbsterdurchschnittlich semi-überprüftes Lernen (2019): [Papier] [Notizen]
- Semi-betriebliches Lernen durch Augmented Distribution Alignment (2019): [Papier] [Notizen]
- MixMatch: Ein ganzheitlicher Ansatz tosemi-sachdiertes Lernen (2019): [Papier] [Notizen]
- Unüberwachte Daten Augmentation (2019): [Papier] [Notizen]
- Interpolation Consistency Training für semi-überprüfter Lernen (2019): [Papier] [Notizen]
- Deep Co-Training für semi-überprüfte Bilderkennung (2018): [Papier] [Notizen]
- Vereinheitlich semi-vorträglich und robustes Lernen durch Mixup (2019): [Papier] [Notizen]
- Realistische Bewertung von tiefen, semi-überprüften Lernalgorithmen (2018): [Papier] [Notizen]
- Halbüberwachungsequenzmodellierung mit Cross-View-Training (2018): [Papier] [Notizen]
- Virtuelles widersprüchliches Training (2017): [Papier] [Notizen]
- Mean Lehrer sind bessere Vorbilder (2017): [Papier] [Notizen]
- Temporales Ensembling für halbübergreifendes Lernen (2017): [Papier] [Notizen]
- Semi-betriebliches Lernen mit Leiternetzwerken (2015): [Papier] [Notizen]
Videoverständnis
- Multiscale Vision Transformers (2021): [Papier] [Notizen]
- Vivit a Video Vision Transformator (2021): [Papier] [Notizen]
- Raumzeit Mischen Aufmerksamkeit für Video-Transformer (2021): [Papier] [Notizen]
- Ist die Aufmerksamkeit der Raumzeit alles, was Sie zum Videoverständnis benötigen (2021): [Papier] [Notizen]
- Ein Bild ist 16x16 Wörter, was ein Video wert ist (2021): [Papier] [Notizen]
- Temporale Abfrage-Netzwerke für feinkörniges Videoverständnis (2021): [Papier] [Notizen]
- X3D Erweiterende Architekturen für eine effiziente Videoerkennung (2020): [Papier] [Notizen]
- Temporales Pyramid -Netzwerk zur Aktionserkennung (2020): [Papier] [Notizen]
- STM Spatiotemporal und Motion Coding for Actionerkennung (2019): [Papier] [Notizen]
- Videoklassifizierung mit kanal getrennten Faltungsnetzwerken (2019): [Papier] [Notizen]
- Videomodellierung mit Korrelationsnetzwerken (2019): [Papier] [Notizen]
- Videos als Raum-Zeit-Region-Diagramme (2018): [Papier] [Notizen]
- Slowfast Networks für Videoerkennung (2018): [Papier] [Notizen]
- TSM Temporal Shift Modul für effizientes Videoverständnis (2018): [Papier] [Notizen]
- Zeitkenntnis für komplexe Aktionserkennung (2018): [Papier] [Notizen]
- Nicht-lokale neuronale Netzwerke (2017): [Papier] [Notizen]
- Temporale Segmentnetzwerke zur Aktionserkennung in Videos. (2017): [Papier] [Notizen]
- Quo Vadis Actionerkennung Ein neues Modell und das Kinetik -Datensatz (2017): [Papier] [Notizen]
- Ein genauerer Blick auf räumlich -zeitliche Konvolutionen für die Aktionserkennung (2017): [Papier] [Notizen]
- ActionVlad Learning Spatio-Temporal Aggregation for Action Classification (2017): [Papier] [Notizen]
- Spatiotemporale Restnetzwerke für die Videoaktionserkennung (2016): [Papier] [Notizen]
- Deep Temporal Linear Coding Networks (2016): [Papier] [Notizen]
- Zeitliche Faltungsnetzwerke für Aktionssegmentierung und Erkennung (2016): [Papier] [Notizen]
- Räumlich -zeitliche Merkmale mit 3D -Faltungsnetzwerk (2014): [Papier] [Notizen]
Verallgemeinerung der Domänenanpassung, Domain und Verteilung
- Überdenken der Domänenanpassung des Verteilungsabgleichs (2020): [Papier] [Notizen]
- Übertragbarkeit vs. Diskriminierbarkeit: Stapelspektralstrafe (2019): [Papier] [Notizen]
- Zum Lernen invariante Darstellungen für die Domänenanpassung (2019): [Papier] [Notizen]
- Universal Domain Adaptation (2019): [Papier] [Notizen]
- Übertragbares kontroverses Training (2019): [Papier] [Notizen]
- Multi-Adversarial-Domänenanpassung (2018): [Papier] [Notizen]
- Bedingte Gegnerdomänenanpassung (2018): [Papier] [Notizen]
- Gegenteil faire und übertragbare Darstellungen (2018): [Papier] [Notizen]
- Welche Auswirkungen haben die Wichtigkeit des tiefen Lernens? (2018): [Papier] [Notizen]
Erklärung
- Um das Lernverhalten von NLU -Modellen zu interpretieren und zu mildern (2021): [Papier] [Notizen]
- Transformator Interpretierbarkeit über die Aufmerksamkeitsvisualisierung hinaus (2020): [Papier] [Notizen]
- Was Formen -Feature -Darstellungen zur Erforschung von Datensätzen Architekturen und Schulungen (2020): [Papier] [Notizen]
- Aufmerksamkeitsbasierte Dropout-Schicht für die schwach überwachte Objektlokalisierung (2019): [Papier] [Notizen]
- Aufmerksamkeit ist keine Erklärung (2019): [Papier] [Notizen]
- SmoothGrad -Rauschen durch Hinzufügen von Rauschen (2017): [Papier] [Notizen]
- Axiomatische Zuschreibung für Deep Networks (2017): [Papier] [Notizen]
- Aufmerksamkeitszweignetzwerk: Lernen des Aufmerksamkeitsmechanismus für visuelle Erklärungen (2019): [Papier] [Notizen]
- Mehr Aufmerksamkeit schenken: Verbesserung der Leistung von CNNs durch Aufmerksamkeitsübertragung (2016): [Papier] [Notizen]
Verarbeitung natürlicher Sprache (NLP)
- Pre-Train, Eingabeaufforderung und Vorhersage: Eine systematische Übersicht über die Anlaufmethoden in der Verarbeitung natürlicher Sprache (2021): [Papier] [Notizen]
- Unüberwachte Datenvergrößerung durch naive Augmentation und ohne unbezeichnete Daten (2020): [Papier] [Notizen]
- Überwachendes kontrastives Lernen für vorgebliebene Sprachmodell-Feinabstimmungen (2021): [Papier] [Notizen]
- Bert und Pals: Projizierte Aufmerksamkeitsebenen für eine effiziente Anpassung im Multitasking-Lernen (2020): [Papier] [Notizen]
- Freelb: Verbessertes kontroverses Training für das Verständnis der natürlichen Sprache (2020): [Papier] [Notizen]
- Mixtext: sprachlich informierte Interpolation für die halbüberwachte Textklassifizierung (2020): [Papier] [Notizen]
Generative Modellierung
- Generative Vorbereitung von Pixeln (2020): [Papier] [Notizen]
- Konsistenzregulierung für generative kontroverse Netzwerke (2020): [Papier] [Notizen]
Unbeaufsichtigtes Lernen
- Invariante Informationen Clustering für unbeaufsichtigte Bildklassifizierung und Segmentierung (2019): [Papier] [Notizen]
- Tiefes Clustering für unbeaufsichtigtes Lernen der visuellen Feature (2018): [Papier] [Notizen]
Semantische Segmentierung
- Deeplabv3+: Encoder-Decoder mit einer abtrennbaren Faltung (2018): [Papier] [Notizen]
- Großer Kernel, Verbesserung der semantischen Segmentierung durch globales Faltungsnetzwerk (2017): [Papier] [Notizen]
- Verständnis der Faltung für semantische Segmentierung (2018): [Papier] [Notizen]
- Überdenken von der schmerzhaften Faltung für die semantische Bildsegmentierung (2017): [Papier] [Notizen]
- Raffineret: Multi-Pfad-Verfeinerungsnetzwerke für hochauflösende semantische Segmentierung (2017): [Papier] [Notizen]
- Pyramidenszene Parsing Network (2017): [Papier] [Notizen]
- SGNET: Eine tiefe Faltungs-DeCoder-Architektur für Imagesmentierung (2016): [Papier] [Notizen]
- ENET: Eine tiefe neuronale Netzwerkarchitektur für die Semantik in Echtzeit (2016): [Papier] [Notizen]
- Aufmerksamkeit auf Skala: skalbesichtige semantische Bildsegmentierung (2016): [Papier] [Notizen]
- Deeptlab: Semantische Bildsegmentierung mit DCNN, ATOR CURPS und CRFS (2016): [Papier] [Notizen]
- U-NET: Faltungsnetzwerke für die biomedizinische Bildsegmentierung (2015): [Papier] [Notizen]
- Vollständige Faltungsnetzwerke für die semantische Segmentierung (2015): [Papier] [Notizen]
- Hypercolumns für Objektsegmentierung und feinkörnige Lokalisierung (2015): [Papier] [Notizen]
Schwach- und semi-vortrimierte semantische Segmentierung
- Box-gesteuerte klassenweise Region Maskierung und Füllrate Guided Loss (2019): [Papier] [Notizen]
- Ficklenet: Schwach und semi-vorträglich semantische Segmentierung unter Verwendung stochastischer Inferenz (2019): [Papier] [Notizen]
- Schwach überprüftes semantisches Segmentierungsnetzwerk mit tief ausgesetzten Region (2018): [Papier] [Notizen]
- Semantische Affinität auf Pixel-Ebene mit Überwachung auf Bildebene (2018): [Papier] [Notizen]
- Objektregion Mining mit kontroversem Löschen (2018): [Papier] [Notizen]
- Überarbeitung erweiterter Faltung: Ein einfacher Ansatz für schwach und semi- beaufsichtigte Segmentierung (2018): [Papier] [Notizen]
- Sagen Sie mir, wo ich schauen soll: Guided Achtungsinferenznetzwerk (2018): [Papier] [Notizen]
- Semi überwachte semantische Segmentierung mit generativem kontroversem Netzwerk (2017): [Papier] [Notizen]
- Entkoppeltes tiefes neuronales Netzwerk für semi-vortrimierte semantische Segmentierung (2015): [Papier] [Notizen]
- Schwach- und semi-vortrimiertes Lernen eines DCNN für semantische Bildsegmentierung (2015): [Papier] [Notizen]
Informationsabruf
- VSE ++: Verbesserung der visuell-semantischen Einbettungen mit harten Negativen (2018): [Papier] [Notizen]
Grafik Neurales Netzwerk
- Pixel zu Diagrammen von Associative Embedding (2017): [Papier] [Notizen]
- Assoziative Einbettung: End-to-End-Lernen für die Erkennung und Gruppierung (2017): [Papier] [Notizen]
- Interaktionsnetzwerke zum Erlernen von Objekten, Beziehungen und Physik (2016): [Papier] [Notizen]
- Deepwalk: Online -Lernen der sozialen Repräsentation (2014): [Papier] [Notizen]
- Das Grafikmodell für neuronale Netzwerke (2009): [Papier] [Notizen]
Regularisierung
- Verteilermischung: Bessere Darstellungen durch Interpolieren versteckter Zustände (2018): [Papier] [Notizen]
Deep -Lernmethoden und Modelle
- Autoaugment (2018): [Papier] [Notizen]
- Stapeled HOGGLOASS (2017): [Papier] [Notizen]
Dokumentanalyse und Segmentierung
- DHSEGMENT: Ein generischer Tiefenlernansatz für die Dokumentsegmentierung (2018): [Papier] [Notizen]
- Lernen, semantische Struktur aus Dokumenten mit multimodalem, vollständig faltungslosen neuronalen Netzwerken zu extrahieren (2017): [Papier] [Notizen]
- Seitensegmentierung für historische handgeschriebene Dokumentbilder unter Verwendung von bedingten Zufallsfeldern (2016): [Papier] [Notizen]
- ICDAR 2015 Wettbewerb zur Erkennung von Textlinien in historischen Dokumenten (2015): [Papier] [Notizen]
- Handschriftliche Segmentierung der Textlinie mit vollständigem Faltungsnetzwerk (2017): [Papier] [Notizen]
- Tiefe neuronale Netzwerke für große Vokabeln handgeschriebene Texterkennung (2015): [Papier] [Notizen]
- Seitensegmentierung historischer Dokumentbilder mit Faltungsautoencodern (2015): [Papier] [Notizen]