
Wichtig
? Kerasnlp ist jetzt Kerashub! ? Lesen Sie die Ankündigung.
Kerashub ist eine vorbereitete Modellbibliothek, die einfach, flexibel und schnell sein soll. Die Bibliothek bietet Keras 3 Implementierungen beliebter Modellarchitekturen, gepaart mit einer Sammlung vorbereiteter Kontrollpunkte, die auf Kaggle -Modellen verfügbar sind. Modelle können mit Text-, Bild- und Audiodaten für die Generierung, Klassifizierung und viele andere integrierte Aufgaben verwendet werden.
Kerashub ist eine Erweiterung der Kern -Keras -API; Kerashub -Komponenten werden als Layer und Model bereitgestellt. Wenn Sie mit Keras vertraut sind, herzlichen Glückwunsch! Sie verstehen bereits den größten Teil von Kerashub.
Alle Modelle unterstützen JAX, TensorFlow und Pytorch aus einer einzelnen Modelldefinition und können mit GPUs und TPUs fein abgestimmt werden. Modelle können auf einzelnen Beschleunigern mit eingebauten PEFT-Techniken geschult oder im Maßstab mit Modell- und Daten parallele Training fein abgestimmt. Sehen Sie sich unserem Anleitungsführer an, um unsere API zu lernen.
Wählen Sie ein Backend:
import os
os . environ [ "KERAS_BACKEND" ] = "jax" # Or "tensorflow" or "torch"!Importieren Sie Kerashub und andere Bibliotheken:
import keras
import keras_hub
import numpy as np
import tensorflow_datasets as tfdsLaden Sie ein Resnet -Modell und verwenden Sie es, um ein Etikett für ein Bild vorherzusagen:
classifier = keras_hub . models . ImageClassifier . from_preset (
"resnet_50_imagenet" ,
activation = "softmax" ,
)
url = "https://upload.wikimedia.org/wikipedia/commons/a/aa/California_quail.jpg"
path = keras . utils . get_file ( origin = url )
image = keras . utils . load_img ( path )
preds = classifier . predict ( np . array ([ image ]))
print ( keras_hub . utils . decode_imagenet_predictions ( preds ))Laden Sie ein Bert-Modell und optimieren Sie es auf IMDB-Filmkritiken:
classifier = keras_hub . models . BertClassifier . from_preset (
"bert_base_en_uncased" ,
activation = "softmax" ,
num_classes = 2 ,
)
imdb_train , imdb_test = tfds . load (
"imdb_reviews" ,
split = [ "train" , "test" ],
as_supervised = True ,
batch_size = 16 ,
)
classifier . fit ( imdb_train , validation_data = imdb_test )
preds = classifier . predict ([ "What an amazing movie!" , "A total waste of time." ])
print ( preds )Um die neueste Kerashub -Version mit Keras 3 zu installieren, rennen Sie einfach:
pip install --upgrade keras-hub
Um die neuesten nächtlichen Änderungen sowohl für Kerashub als auch für Keras zu installieren, können Sie unser nächtliches Paket verwenden.
pip install --upgrade keras-hub-nightly
Derzeit wird die Installation von Kerashub immer TensorFlow für die Verwendung der tf.data -API zur Vorverarbeitung einbezogen. Bei der Vorverarbeitung mit tf.data kann das Training immer noch in jedem Backend stattfinden.
Besuchen Sie die Kern -Keras -Erste -Seite für weitere Informationen zur Installation von Keras 3, Beschleunigerunterstützung und Kompatibilität mit verschiedenen Frameworks.
Wenn Sie Keras 3 in Ihrer Umgebung installiert haben (siehe Installation oben), können Sie Kerashub mit JAX, Tensorflow und Pytorch verwenden. Setzen Sie dazu die Variable KERAS_BACKEND -Umgebung. Zum Beispiel:
export KERAS_BACKEND=jaxOder in Colab, mit:
import os
os . environ [ "KERAS_BACKEND" ] = "jax"
import keras_hub Wichtig
Stellen Sie sicher, dass Sie den KERAS_BACKEND festlegen, bevor Sie keras -Bibliotheken importieren. Es wird verwendet, um Keras einzurichten, wenn es zum ersten Mal importiert wird.
Wir folgen der semantischen Versionierung und planen, sowohl für Code als auch für gespeicherte Modelle, die mit unseren Komponenten erstellt wurden, rückwärtskräftigen Kompatibilitätsgarantien bereitzustellen. Während wir mit der Entwicklung vor der 0.yz weiterhin die Entwicklung vor der Veröffentlichung fortsetzen, können wir die Kompatibilität jederzeit durchbrechen und APIs sollten nicht als stabil angesehen werden.
Kerashub bietet über die API keras_hub.models auf vorgebildete Modelle. Diese vorgebauten Modelle werden auf "As is" -Basis ohne Gewährleistungen oder Bedingungen jeglicher Art bereitgestellt. Die folgenden zugrunde liegenden Modelle werden von Dritten bereitgestellt und unterliegen separaten Lizenzen: Bart, Bloom, DeBerta, Distilbert, GPT-2, Lama, Mistral, Opt, Roberta, Whisper und XLM-Roberta.
Wenn Kerashub Ihre Forschung hilft, schätzen wir Ihre Zitate. Hier ist der Bibtex -Eintrag:
@misc { kerashub2024 ,
title = { KerasHub } ,
author = { Watson, Matthew, and Chollet, Franc{c}ois and Sreepathihalli,
Divyashree, and Saadat, Samaneh and Sampath, Ramesh, and Rasskin, Gabriel and
and Zhu, Scott and Singh, Varun and Wood, Luke and Tan, Zhenyu and Stenbit,
Ian and Qian, Chen, and Bischof, Jonathan and others } ,
year = { 2024 } ,
howpublished = { url{https://github.com/keras-team/keras-hub} } ,
}Vielen Dank an all unsere wunderbaren Mitwirkenden!