GPYTORCH ist eine Gaußsche Prozessbibliothek, die mit Pytorch implementiert ist. GPYTORCH ist für die Erstellung skalierbarer, flexibler und modularer Gaußscher Prozessmodelle mit Leichtigkeit ausgelegt.
Innen unterscheidet sich GPYTORCH von vielen vorhandenen Ansätzen zur GP -Inferenz, indem die meisten Inferenzvorgänge unter Verwendung numerischer linearer Algebra -Techniken wie vorkonditionierten Konjugatgradienten durchgeführt werden. Die Implementierung einer skalierbaren GP -Methode ist so einfach wie die Bereitstellung einer Matrix -Multiplikationsroutine mit der Kernelmatrix und dessen Derivat über unsere Linearoperator -Schnittstelle oder durch das Komponieren vieler unserer bereits vorhandenen LinearOperators . Dies ermöglicht nicht nur eine einfache Implementierung beliebter skalierbarer GP -Techniken, sondern auch häufig auch für die erhebliche Verbesserung der Nutzung des GPU -Computing im Vergleich zu Löser basierend auf der Cholesky -Zerlegung.
GPYTORCH liefert (1) eine signifikante GPU -Beschleunigung (durch MVM -basierte Inferenz); (2) hochmoderne Implementierungen der neuesten algorithmischen Fortschritte für Skalierbarkeit und Flexibilität (SKI/KISS-GP, Stochastische Lanczos-Expansionen, Liebe, Ski, stochastisches Variations-Tiefkernlernen, ...); (3) Einfache Integration in Deep Learning Frameworks.
In unserer Dokumentation, Beispielen und Tutorials zum Bau aller Arten von Modellen in GPYTORCH.
Anforderungen :
Installieren Sie GPYTORCH mit PIP oder Conda:
pip install gpytorch
conda install gpytorch -c gpytorch (Um Pakete global zu verwenden, aber GPYTORCH als Benutzerpaket installieren, verwenden Sie pip install --user oben.)
Um auf die neueste (instabile) Version zu upgraden, laufen Sie aus
pip install --upgrade git+https://github.com/cornellius-gp/linear_operator.git
pip install --upgrade git+https://github.com/cornellius-gp/gpytorch.gitWenn Sie eine Pull -Anfrage beitragen, ist es am besten, eine manuelle Installation durchzuführen:
git clone https://github.com/cornellius-gp/gpytorch.git
cd gpytorch
pip install -e .[dev,docs,examples,keops,pyro,test] # keops and pyro are optional Hinweis : Experimentelles AUR -Paket. Für die meisten Benutzer empfehlen wir die Installation durch Conda oder PIP.
GPYTORCH ist auch im Archlinux User Repository (AUR) verfügbar. Sie können es mit einem AUR -Helfer wie yay wie folgt installieren:
yay -S python-gpytorch Um alle Probleme im Zusammenhang mit diesem AUR-Paket zu besprechen, beziehen Sie sich auf den Kommentarbereich von python-gpytorch .
Wenn Sie GPYTORCH verwenden, zitieren Sie bitte die folgenden Papiere:
Gardner, Jacob R., Geoff Pleiss, David Bindel, Kilian Q. Weinberger und Andrew Gordon Wilson. "GPYTORCH: Blackbox Matrix-Matrix Gaußsche Prozess-Inferenz mit GPU-Beschleunigung." In Fortschritten in neuronalen Informationsverarbeitungssystemen (2018).
@inproceedings{gardner2018gpytorch,
title={GPyTorch: Blackbox Matrix-Matrix Gaussian Process Inference with GPU Acceleration},
author={Gardner, Jacob R and Pleiss, Geoff and Bindel, David and Weinberger, Kilian Q and Wilson, Andrew Gordon},
booktitle={Advances in Neural Information Processing Systems},
year={2018}
}
Informationen zum Senden von Problemen und Zugangsanfragen finden Sie in den beitragenden Richtlinien.
Gpytorch wird hauptsächlich beibehalten von:
Wir möchten unseren anderen Mitwirkenden danken, darunter (aber nicht beschränkt auf) Eytan Bakshy, Wesley Maddox, Ke Alexander Wang, Ruihan Wu, Sait Cakmak, David Eriksson, Sam Daulton, Martin Jankowiak, Sam Stanton, Zitong Zhou, David Arbor, viel mehr, viel mehr!
Die Entwicklung von GPYTORCH wird durch die Finanzierung der Bill and Melinda Gates Foundation, der National Science Foundation, der SAP, der Simons Foundation und des Gatsby Charitable Trust unterstützt.
Gpytorch ist MIT lizenziert.