
Importante
? ¡Kerasnlp ahora es Kerashub! ? Lea el anuncio.
Kerashub es una biblioteca de modelado previa a la aparición que tiene como objetivo ser simple, flexible y rápido. La biblioteca proporciona implementaciones de Keras 3 de arquitecturas de modelos populares, combinadas con una colección de puntos de control previos a la aparición disponibles en los modelos Kaggle. Los modelos se pueden usar con datos de texto, imagen y audio para generación, clasificación y muchas otras tareas incorporadas.
Kerashub es una extensión de la API Core Keras; Los componentes de Kerashub se proporcionan como implementaciones Layer y Model . Si está familiarizado con Keras, ¡felicidades! Ya entiendes la mayor parte de Kerashub.
Todos los modelos admiten Jax, TensorFlow y Pytorch de una sola definición del modelo y pueden ajustarse en GPU y TPUS fuera de la caja. Los modelos pueden ser entrenados en aceleradores individuales con técnicas PEFT incorporadas, o ajustados a escala con modelo y entrenamiento paralelo de datos. Vea nuestra guía de inicio para comenzar a aprender nuestra API.
Elija un backend:
import os
os . environ [ "KERAS_BACKEND" ] = "jax" # Or "tensorflow" or "torch"!Importar kerashub y otras bibliotecas:
import keras
import keras_hub
import numpy as np
import tensorflow_datasets as tfdsCargue un modelo Resnet y úselo para predecir una etiqueta para una imagen:
classifier = keras_hub . models . ImageClassifier . from_preset (
"resnet_50_imagenet" ,
activation = "softmax" ,
)
url = "https://upload.wikimedia.org/wikipedia/commons/a/aa/California_quail.jpg"
path = keras . utils . get_file ( origin = url )
image = keras . utils . load_img ( path )
preds = classifier . predict ( np . array ([ image ]))
print ( keras_hub . utils . decode_imagenet_predictions ( preds ))Cargue un modelo Bert y lo ajuste en reseñas de películas IMDB:
classifier = keras_hub . models . BertClassifier . from_preset (
"bert_base_en_uncased" ,
activation = "softmax" ,
num_classes = 2 ,
)
imdb_train , imdb_test = tfds . load (
"imdb_reviews" ,
split = [ "train" , "test" ],
as_supervised = True ,
batch_size = 16 ,
)
classifier . fit ( imdb_train , validation_data = imdb_test )
preds = classifier . predict ([ "What an amazing movie!" , "A total waste of time." ])
print ( preds )Para instalar el último lanzamiento de Kerashub con Keras 3, simplemente ejecute:
pip install --upgrade keras-hub
Para instalar los últimos cambios nocturnos para Kerashub y Keras, puede usar nuestro paquete nocturno.
pip install --upgrade keras-hub-nightly
Actualmente, la instalación de Kerashub siempre atraerá a TensorFlow para el uso de la API tf.data para el preprocesamiento. Al preprocesar con tf.data , el entrenamiento aún puede ocurrir en cualquier backend.
Visite la página Core Keras que se inició para obtener más información sobre la instalación de Keras 3, el soporte del acelerador y la compatibilidad con diferentes marcos.
Si tiene Keras 3 instalado en su entorno (consulte la instalación anterior), puede usar Kerashub con cualquiera de Jax, TensorFlow y Pytorch. Para hacerlo, establezca la variable de entorno KERAS_BACKEND . Por ejemplo:
export KERAS_BACKEND=jaxO en Colab, con:
import os
os . environ [ "KERAS_BACKEND" ] = "jax"
import keras_hub Importante
Asegúrese de establecer el KERAS_BACKEND antes de importar cualquier biblioteca Keras; Se usará para configurar Keras cuando se importe por primera vez.
Seguimos versiones semánticas y planeamos proporcionar garantías de compatibilidad al revés tanto para los modelos de código y guardados construidos con nuestros componentes. Si bien continuamos con el desarrollo previo al lanzamiento 0.yz , podemos romper la compatibilidad en cualquier momento y las API no deben considerarse estables.
Kerashub proporciona acceso a modelos previamente capacitados a través de la API keras_hub.models . Estos modelos previamente capacitados se proporcionan sobre una base "como es", sin garantías ni condiciones de ningún tipo. Los siguientes modelos subyacentes son proporcionados por terceros y están sujetos a licencias separadas: Bart, Bloom, Deberta, Distilbert, GPT-2, Llama, Mistral, Opt, Roberta, Whisper y XLM-Roberta.
Si Kerashub ayuda a su investigación, apreciamos sus citas. Aquí está la entrada de Bibtex:
@misc { kerashub2024 ,
title = { KerasHub } ,
author = { Watson, Matthew, and Chollet, Franc{c}ois and Sreepathihalli,
Divyashree, and Saadat, Samaneh and Sampath, Ramesh, and Rasskin, Gabriel and
and Zhu, Scott and Singh, Varun and Wood, Luke and Tan, Zhenyu and Stenbit,
Ian and Qian, Chen, and Bischof, Jonathan and others } ,
year = { 2024 } ,
howpublished = { url{https://github.com/keras-team/keras-hub} } ,
}¡Gracias a todos nuestros maravillosos contribuyentes!