tuna est votre guichet unique (open-source) pour un réglage fin d'un modèle de génération de code sur n'importe quelle base de code, disponible publiquement ou en privé sur github (plus de prise en charge VCS bientôt!).
Nous simplifions l' ensemble du processus, ce qui signifie que tout ce que vous avez à faire pour construire votre modèle, paramètres et tout, est simplement de suivre la commande d'initialisation ci-dessous!
Vous n'avez pas de GPU NVIDIA? Ne t'inquiète pas! Assurez-vous d'avoir une clé RSA SSH disponible sur ~/.ssh/id_rsa.pub , et configurez un compte et une clé API sur notre fournisseur GPU, FluidStack. Prix minimaux, développement maximum.
Si vous êtes confronté à la confidentialité des données et à la collecte de données, notez que le thon ne collecte aucune donnée sur vous et est entièrement open source. Consultez la section "Collection de données" ci-dessous pour en savoir plus.
Nous serions ravis que vous nous aimions un, car c'est notre principale façon de suivre l'intérêt des utilisateurs! Si vous vous sentez très généreux, vous pouvez cliquer sur Sponsor ❤️. Merci beaucoup d'avoir lu!
Questions? Contactez abhi[at]opennote.me .
Remarque: Le thon n'est actuellement pris en charge que sur MacOS et Linux , Windows arrive bientôt ...
Pour installer tuna , assurez-vous que Python 3.12+ soit installé sur votre machine, puis exécutez simplement la commande ci-dessous:
pip install tuna-cli Cela rendra tuna exécutable de n'importe où sur votre machine.
1. Initialiser
tuna init
# Initializes a `.tuna` folder
# Authenticates your GitHub credentials
# - This asks for a GitHub Token
# which MUST have READ REPO and READ USER permissions
# Lets you select a repository
# Builds a Model Training Dataset
# Sets up Jupyter Environment2. Servir
tuna serve
# Runs a Local Jupyter Environment with the
# autogenerated notebook and dataset,
# with CPU and Memory monitoring
# By default, this doesn't open the browser
# automatically. Run:
tuna serve --open
# to do that3. Actualiser
tuna refresh
# Recreates the dataset after updating
# from your GitHub project, in case you made
# edits after initializing with Tuna4. Train (à venir bientôt)
tuna train
# Begins to train the dataset with a powerful GPU from
# FluidStack (see intro)
# To train locally on current hardware, run
tuna train --local
# (must be on a device with an NVIDIA GPU, since Tuna relies on CUDA)5. Aiders
tuna help
# or
tuna github
# or
tuna docs
# All of these will open the GitHub repository for Tuna, where all the documentation
# is served in the README.md file.6. Purge
tuna purge
# This will delete all tuna-generated files
# in your current directory
# USE WITH CAUTION!7. Pas de drapeaux
tuna
# Displays a welcome message Après l'installation de l'outil CLI, le thon est entièrement localisé sur votre système. En dehors des services de location de GPU avec lesquels nous nous associons pour autoriser la formation, nous ne stockons ni ne transférons de données à des services internes. Le thon est strictement open source .
Les informations d'identification GitHub, y compris les jetons OAuth, votre nom d'utilisateur et vos référentiels stockés, peuvent être effacés en supprimant le répertoire .tuna au même endroit qu'il a été fabriqué, ou en exécutant tuna purge dans ce répertoire.
Les touches API FluidStack sont également stockées localement, en supprimant le répertoire .tuna au même endroit qu'il a été fabriqué, ou en exécutant tuna purge dans ce répertoire
Tous les fichiers tirés de GitHub sont strictement stockés dans les ensembles de données que vous pouvez trouver dans le répertoire .tuna qui est fabriqué. Nous tirons le texte directement de l'API GitHub pour vous sauver des fichiers indésirables et des installations de dépendance, ainsi que pour protéger vos variables d'environnement.
À moins que vous ne partagiez l'explication des données avec nous, nous ne verrons jamais vos données personnelles.
Avertissement: nous ne possédons pas les modèles que nous utilisons pour un réglage fin, et leurs politiques de données sont sur leurs sites Web invidudaux. Recherchez votre modèle de choix pour en savoir plus.
? Happy Tun (a) ing!