Papiere in 100 Codezeilen
Implementierung von Arbeiten in 100 Codezeilen.
Implementierte Papiere
[Maxout -Netzwerke]
- Maxout -Netzwerke [Arxiv]
- Ian J. Goodfellow, David Warde-Farley, Mehdi Mirza, Aaron Courville, Yoshua Bengio
-
2013-02-18
[Netzwerk im Netzwerk]
- Netzwerk im Netzwerk [ARXIV]
- Min Lin, Qiang Chen, Shuicheng Yan
-
2013-12-13
[Atari spielen mit tiefem Verstärkungslernen]
- Atari mit tiefem Verstärkungslernen spielen [Arxiv]
- Volodymyr Mnih, Koray Kavukcuoglu, David Silver, Alex Graves, Ioannis Antonoglou, Daan Wierstra, Martin Riedmiller
-
2013-12-19
[Automatisch kodierende Variation Bayes]
- Automatisch kodierende Variation Bayes [ARXIV]
- Diederik P Kingma, Max Welling
-
2013-12-20
[Generative kontroverse Netzwerke]
- Generative kontroverse Netzwerke [ARXIV]
- Ian J. Goodfellow, Jean Pouget-Abadie, Mehdi Mirza, Bing Xu, David Warde-Farley, Sherjil Ozair, Aaron Courville, Yoshua Bengio
-
2014-06-10
[Bedingte generative kontroverse Netze]
- Bedingte generative kontroverse Netze [ARXIV]
- Mehdi Mirza, Simon Osindero
-
2014-11-06
[Adam: Eine Methode zur stochastischen Optimierung]
- ADAM: Eine Methode zur stochastischen Optimierung [ARXIV]
- Diederik P. Kingma, Jimmy BA
-
2014-12-22
[Schön: Nichtlineare unabhängige Komponentenschätzung]
- Schön: Nichtlineare Schätzung der unabhängigen Komponenten [ARXIV]
- Laurent Dinh, David Krueger, Yoshua Bengio
-
2014-10-30
[Kontrolle auf Menschenebene durch tiefes Verstärkungslernen]
- Kontrolle der Menschen auf Menschenebene durch tiefes Verstärkungslernen [Natur]
- Volodymyr Mnih, Koray Kavukcuoglu, David Silver, Andrei A. Rusu, Joel Veness, Marc G. Bellemare, Alex Graves, Martin Riedmiller, Andreas K. Fidjeland, Georg Ostrovski, Stig Petersen, Charles Beattie, Amir Sadik, Ioannis Antonoglou, Helen King, Dharshan Kumaran, Daan Wierstra, Shane Legg & Demis Hassabis
-
2015-02-25
[Tiefes unbeaufsichtigtes Lernen mit Nichtgleichgewichtsthermodynamik]
- Tiefes unbeaufsichtigtes Lernen mit Nichtgleichgewichtsthermodynamik [ARXIV]
- Jascha Sohl-Dickstein, Eric A. Weiss, Niru Maheswaranathan, Surya Ganguli
-
2015-03-12
[Variationsinferenz mit Normalisierungsströmen]
- Variationsinferenz mit Normalisierungsströmen [ARXIV]
- Danilo Jimenez Rezende, Shakir Mohamed
-
2015-05-21
[Tiefes Verstärkung Lernen mit doppeltem Q-Learning]
- Tiefes Verstärkung Lernen mit doppeltem Q-Learning [ARXIV]
- Hado van Hasselt, Arthur Guez, David Silver
-
2015-09-22
[Unbeaufsichtigtes Repräsentationslernen mit tiefem Faltungsgeneratives widersprüchlicher Netzwerke]
- Faltungsgenerative kontroverse Netzwerke [ARXIV]
- Alec Radford, Luke Metz, Soumith Chintala
-
2015-11-19
[Schnelles und genaues Tiefnetzwerklernen durch exponentielle lineare Einheiten (ELUS)]]
- Schnelles und genaues Tiefnetzwerklernen durch exponentielle lineare Einheiten (ELUS) [ARXIV]
- Djork-Arné Clevert, Thomas Unterherdiner, Sepp Hochreiter
-
2015-11-23
[Übergezogene Inferenz]
- Kongorial gelernte Inferenz [Arxiv]
- Vincent Dumoulin, Ishmael Belghazi, Ben Poole, Olivier Mastropietro, Alex Lamb, Martin Arjovsky, Aaron Courville
-
2016-06-02
[Verbesserte Techniken zum Training von Gans]
- Verbesserte Techniken zum Training von Gans [Arxiv]
- Tim Salimans, Ian Goodfellow, Wojciech Zaremba, Vicki Cheung, Alec Radford, Xi Chen
-
2016-06-10
[Gaußsche Fehler lineare Einheiten (Gelus)]
- Gaußsche Fehler Lineare Einheiten (Gelus) [ARXIV]
- Dan Hendrycks, Kevin Gimpel
-
2016-06-27
[Geringste Quadrate generative widersprüchliche Netzwerke]
- Generative widersprüchliche Netzwerke am wenigsten Quadrate [ARXIV]
- Xudong Mao, Qing Li, Haoran Xie, Raymond Yk Lau, Zhen Wang, Stephen Paul Smolley
-
2016-11-13
[Bild-zu-Image-Übersetzung mit bedingten kontroversen Netzwerken]
- Bild-zu-Image-Übersetzung mit bedingten kontroversen Netzwerken [ARXIV]
- Phillip Isola, Jun-Yan Zhu, Tinghui Zhou, Alexei A. Efros
-
2016-11-21
[Wasserstein Gan]
- Wasserstein Gan [Arxiv]
- Martin Arjovsky, Soumith Chintala, Léon Bottou
-
2017-01-26
[Modell-agnostisches Meta-Learning zur schnellen Anpassung von tiefen Netzwerken]
- Modell-agnostisches Meta-Learning zur schnellen Anpassung von tiefen Netzwerken [ARXIV]
- Chelsea Finn, Pieter Abbeel, Sergey Levine
-
2017-03-09
[Ungepaarte Image-zu-Image-Übersetzung unter Verwendung von zykluskonsistenten ätzenden Netzwerken]
- Ungepaarte Bild-zu-Image-Übersetzung unter Verwendung von zykluskonsistenten ätzenden Netzwerken [ARXIV]
- Jun-Yan Zhu, Taesung Park, Phillip Isola, Alexei A. Efros
-
2017-03-30
[Verbessertes Training von Wasserstein Gans]
- Verbessertes Training von Wasserstein Gans [Arxiv]
- Ishaan Gulrajani, Faruk Ahmed, Martin Arjovsky, Vincent Dumoulin, Aaron Courville
-
2017-03-31
[Konverselles Lernen]
- Gegenteiles Merkmalslernen [ARXIV]
- Jeff Donahue, Philipp Kruhenbühl, Trevor Darrell
-
2017-04-03
[Selbstnormale neuronale Netzwerke]
- Selbstnormale neuronale Netzwerke [ARXIV]
- Günter Klambauer, Thomas Untertiner, Andreas Mayr, Sepp Hochreiter
-
2017-06-08
[Algorithmen zur proximalen Politikoptimierung]
- Proximale Politikoptimierungsalgorithmen [ARXIV]
- John Schulman, Filip Wolski, Prafulla Dhariwal, Alec Radford, Oleg Klimov
-
2017-08-28
[Deep Image Prior]
- Deep Image Prior [Arxiv]
- Dmitry Ulyanov, Andrea Vedaldi, Victor Lempitsky
-
2017-11-29
[Auf Meta-Learning-Algorithmen erster Ordnung]
- Auf Meta-Learning-Algorithmen erster Ordnung [Arxiv]
- Alex Nichol, Joshua Achiam, John Schulman
-
2018-03-08
[Sequentielle neuronale Wahrscheinlichkeit]
- Sequentielle neuronale Wahrscheinlichkeit: schnelle Wahrscheinlichkeitsfreie Inferenz mit autoregressiven Flüssen [ARXIV]
- George Papamakarios, David C. Sterratt, Iain Murray
-
2018-05-18
[Über die Varianz der adaptiven Lernrate und darüber hinaus]
- Über die Varianz der adaptiven Lernrate und darüber hinaus [Arxiv]
- Liyuan Liu, Haoming Jiang, Pengcheng He, Weizhu Chen, Xiaodong Liu, Jianfeng Gao, Jiawei Han
-
2019-08-08
[Optimierung von Millionen von Hyperparametern durch implizite Differenzierung]
- Optimierung von Millionen von Hyperparametern durch implizite Differenzierung [PMLR]
- Jonathan Lorraine, Paul Vicol, David Duvenaud
-
2019-10-06
[Implizite neuronale Darstellungen mit periodischen Aktivierungsfunktionen]
- Implizite neuronale Darstellungen mit periodischen Aktivierungsfunktionen [ARXIV]
- Vincent Sitzmann, Julien NP Martel, Alexander W. Bergman, David B. Lindell, Gordon Wetzstein
-
2020-06-17
[Fourier -Funktionen können Netzwerke in niedrigen dimensionalen Domänen Hochfrequenzfunktionen lernen]
- Fourier -Funktionen lassen Netzwerke Hochfrequenzfunktionen in niedrigen dimensionalen Domänen [ARXIV] lernen.
- Matthew Tancik, Pratul P. Srinivasan, Ben Mildenhall, Sara Fridovich-Keil, Nithin Raghavan, Utkarsh Singhal, Ravi Ramamoorthi, Jonathan T. Barron, Ren Ng, Ren Ng
-
2020-06-18
[Denoising diffusion probabilistische Modelle]
- Denoising diffusion probabilistische Modelle [ARXIV]
- Jonathan Ho, Ajay Jain, Pieter Abbeel
-
2020-06-19
[Wahrscheinlichkeitsfreie MCMC mit amortisierten ungefähren Verhältnisschätzern]
- Wahrscheinlichfreie MCMC mit amortisierten ungefähren Verhältnisschätzern [PMLR]
- Joeri Hermans, Volodimir BEGY, Gilles Louppe
-
2020-06-26
[NERF: Darstellung von Szenen als neuronale Strahlungsfelder für die Sichtsynthese]
- NERF: Szenen als neuronale Strahlungsfelder für die Sichtsynthese [ARXIV] darstellen
- Ben Mildenhall, Pratul P. Srinivasan, Matthew Tancik, Jonathan T. Barron, Ravi Ramamoorthi, Ren Ng
-
2020-08-03
[Multiplikative Filternetzwerke]
- Multiplikative Filternetzwerke [OpenReview]
- Rizal Fathony, Anit Kumar Sahu, Devin Willmott, J Zico Kolter
-
2020-09-28
[Lernte Initialisierungen zur Optimierung koordinatenbasierter neuronaler Darstellungen]
- Lernte Initialisierungen zur Optimierung koordinatenbasierter neuronaler Darstellungen [ARXIV]
- Matthew Tancik, Ben Mildenhall, Terrance Wang, Divi Schmidt, Pratul P. Srinivasan, Jonathan T. Barron, Ren Ng
-
2020-12-03
[Fastnerf: Neurales Rendering mit hohem Fidelity bei 200 fps]
- Fastnerf: Neurales Rendering mit hohem Fidelity bei 200 fps [ARXIV]
- Stephan J. Garbin, Marek Kowalski, Matthew Johnson, Jamie Shotton, Julien Valentin
-
2021-03-18
[Kilonerf: Spannung neuronaler Strahlungsfelder mit Tausenden von winzigen MLPs]
- Kilonerf: Schnelle neuronale Strahlungsfelder mit Tausenden von winzigen MLPs [ARXIV]
- Christian Reiser, Songyou Peng, Yiyi Liao, Andreas Geiger
-
2021-03-25
[Plenoctrees für die Echtzeit-Wiedergabe neuronaler Strahlungsfelder]
- Plenoctrees für die Echtzeit-Darstellung neuronaler Strahlungsfelder [ARXIV]
- Alex Yu, Ruilong Li, Matthew Tancik, Hao Li, Ren Ng, Angjoo Kanazawa
-
2021-03-25
[Nerf--: Neuronale Strahlenfelder ohne bekannte Kameraparameter]
- Nerf--: Neural Radiance Felder ohne bekannte Kameraparameter [ARXIV]
- Zirui Wang, Shangzhe Wu, Weidi Xie, Min Chen, Victor Adrian Prisacariu
-
2021-02-14
[Gromov-Dasstein Abstände zwischen Gaußschen Verteilungen]
- Gromov-Wasserstein Abstände zwischen Gaußschen Verteilungen [ARXIV]
- Antoine Salmona, Julie Delon, Agnès Desolneux
-
2021-08-16
[Plenoxel: Radiance Fields ohne neuronale Netzwerke]
- Plenoxel: Radiance Fields ohne neuronale Netze [ARXIV]
- Alex Yu, Sara Fridovich-Keil, Matthew Tancik, Qinhong Chen, Benjamin Recht, Angjoo Kanazawa
-
2021-12-09
[Infonerf: Minimierung von Strahlenentropie für wenige Schusswechsel-Volumenwiedergabe]
- Infonerf: Minimierung von Strahlenentropie für wenige Schusswesen neuronales Volumenrendern [ARXIV]
- Mijeong Kim, Seonguk Seo, Boyung Han
-
2021-12-31
[Sofortige neuronale Grafik -Primitive mit einer Multireolast -Hash -Codierung]
- Sofortige neuronale Grafik -Primitive mit einer Multireolast -Hash -Codierung [ARXIV]
- Thomas Müller, Alex Evans, Christoph Schied, Alexander Keller
-
2022-01-16
[Flow gerade und schnell: Lernen, Daten mit behobenem Fluss zu generieren und zu übertragen]
- Fluss gerade und schnell: Lernen, Daten mit einem behobenen Fluss zu generieren und zu übertragen [ARXIV]
- Xingchao Liu, Chengyue Gong, Qiang Liu
-
2022-09-07
[K-Planes: Explizite Strahlungsfelder in Raum, Zeit und Aussehen]
- K-Planes: Explizite Strahlungsfelder in Raum, Zeit und Aussehen [Arxiv]
- Sara Fridovich-Keil, Giacomo gemeint, Frederik Warburg, Benjamin Recht, Angjoo Kanazawa
-
2023-01-24
[Freenerf: Verbesserung der neuronalen Renderung von wenigen Schichten mit der Regularisierung der kostenlosen Frequenz]
- Freenerf: Verbesserung der neuronalen Rendering von wenigen Schichten mit einer regulären Frequenz-Regularisierung [ARXIV]
- Jiawei Yang, Marco Pavone, Yue Wang
-
2023-03-13