tuna es su compra única (de código abierto) para ajustar un modelo de generación de código en cualquier base de código, disponible pública o privada en GitHub (¡más soporte de VCS pronto!).
¡Simplificamos todo el proceso, lo que significa que todo lo que tiene que hacer para construir su modelo perfecto, configuración y todo, simplemente siga el comando de inicialización a continuación!
¿No tienes una GPU NVIDIA? ¡No te preocupes! Asegúrese de tener una tecla RSA SSH disponible en ~/.ssh/id_rsa.pub , y configure una cuenta y una clave API en nuestro proveedor de GPU, FluidStack. Precios mínimos, desarrollo máximo.
Si está relacionado con la privacidad de los datos y la recopilación de datos, tenga en cuenta que el atún no recopila ningún dato sobre usted y es de código abierto. Consulte la sección "Recopilación de datos" a continuación para obtener más información.
¡Nos encantaría si nos diste una, ya que esa es nuestra forma principal de rastrear el interés de los usuarios! Si te sientes más generoso, puedes hacer clic en patrocinador ❤️. ¡Muchas gracias por leer!
¿Preguntas? Póngase en contacto con abhi[at]opennote.me .
Nota: Actualmente, el atún solo es compatible con MacOS y Linux , Windows llegará pronto ...
Para instalar tuna , asegúrese de tener instalado Python 3.12+ en su máquina, simplemente ejecute el siguiente comando:
pip install tuna-cli Esto hará que tuna sea ejecutable desde cualquier lugar de su máquina.
1. Inicializar
tuna init
# Initializes a `.tuna` folder
# Authenticates your GitHub credentials
# - This asks for a GitHub Token
# which MUST have READ REPO and READ USER permissions
# Lets you select a repository
# Builds a Model Training Dataset
# Sets up Jupyter Environment2. Servir
tuna serve
# Runs a Local Jupyter Environment with the
# autogenerated notebook and dataset,
# with CPU and Memory monitoring
# By default, this doesn't open the browser
# automatically. Run:
tuna serve --open
# to do that3. Actualizar
tuna refresh
# Recreates the dataset after updating
# from your GitHub project, in case you made
# edits after initializing with Tuna4. Train (próximamente)
tuna train
# Begins to train the dataset with a powerful GPU from
# FluidStack (see intro)
# To train locally on current hardware, run
tuna train --local
# (must be on a device with an NVIDIA GPU, since Tuna relies on CUDA)5. ayudantes
tuna help
# or
tuna github
# or
tuna docs
# All of these will open the GitHub repository for Tuna, where all the documentation
# is served in the README.md file.6. Purga
tuna purge
# This will delete all tuna-generated files
# in your current directory
# USE WITH CAUTION!7. Sin banderas
tuna
# Displays a welcome message Después de la instalación de la herramienta CLI, el atún está completamente localizado en su sistema. Fuera de los servicios de alquiler de GPU con los que asociamos para permitir la capacitación, no almacenamos ni transferimos ningún dato a ningún servicio interno. El atún es estrictamente de código abierto .
Las credenciales de GitHub, incluidas las tokens Oauth, su nombre de usuario y sus repositorios almacenados, se pueden eliminar eliminando el directorio .tuna en el mismo lugar que se hizo, o ejecutando tuna purge en ese directorio.
Las teclas de la API de FluidStack también se almacenan localmente, eliminando el directorio .tuna en el mismo lugar que se hizo, o ejecutando tuna purge en ese directorio
Todos los archivos extraídos de GitHub se almacenan estrictamente en los conjuntos de datos que puede encontrar en el directorio .tuna que se realiza. Extraemos el texto directamente de la API de GitHub para guardarle archivos no deseados e instalaciones de dependencia, y también para proteger sus variables de entorno.
A menos que comparta datos de datos con nosotros, nunca veremos sus datos personales.
Descargo de responsabilidad: no somos dueños de los modelos que usamos para el ajuste fino, y sus políticas de datos se encuentran en sus sitios web Invididuales. Busque su modelo de elección para aprender más.
? ¡Feliz tun (a) ing!