tuna ist Ihr One-Stop-Shop (Open-Source) -Schirhe zum Feinabstieg eines Codegenerierungsmodells für jede Codebasis, die öffentlich oder privat auf GitHub verfügbar ist (bald mehr VCS-Unterstützung!).
Wir vereinfachen den gesamten Prozess, was bedeutet, dass alles, was Sie tun müssen, um Ihr perfektes Modell, Ihre Einstellungen und alle zu erstellen, einfach dem folgenden Initialisierungsbefehl folgt!
Sie haben keine Nvidia -GPU? Mach dir keine Sorge! Stellen Sie sicher, dass Sie einen RSA -SSH -Schlüssel unter ~/.ssh/id_rsa.pub verfügbar haben, und richten Sie ein Konto und einen API -Schlüssel für unseren GPU -Anbieter FluidStack ein. Minimale Preise, maximale Entwicklung.
Wenn Sie sich mit Datenschutz und Datenerfassung beschäftigen, beachten Sie, dass Thunfisch keine Daten zu Ihnen sammelt und vollständig Open Source ist. Schauen Sie sich den Abschnitt "Datenerfassung" unten an, um mehr zu erfahren.
Wir würden uns freuen, wenn Sie uns eine geben würden, da dies unsere Hauptmethode ist, um das Benutzerinteresse zu verfolgen! Wenn Sie sich besonders großzügig fühlen, können Sie den Sponsor klicken. Vielen Dank für das Lesen!
Fragen? Wenden Sie sich abhi[at]opennote.me .
Hinweis: Thunfisch wird derzeit nur auf MacOS und Linux unterstützt. Windows kommt bald ...
Um tuna zu installieren, stellen Sie sicher, dass Sie Python 3.12+ auf Ihrem Computer installiert haben, und führen Sie einfach den folgenden Befehl aus:
pip install tuna-cli Dadurch wird tuna von überall auf Ihrem Computer ausführbar.
1.. Initialisieren
tuna init
# Initializes a `.tuna` folder
# Authenticates your GitHub credentials
# - This asks for a GitHub Token
# which MUST have READ REPO and READ USER permissions
# Lets you select a repository
# Builds a Model Training Dataset
# Sets up Jupyter Environment2. servieren
tuna serve
# Runs a Local Jupyter Environment with the
# autogenerated notebook and dataset,
# with CPU and Memory monitoring
# By default, this doesn't open the browser
# automatically. Run:
tuna serve --open
# to do that3.. Aktualisieren
tuna refresh
# Recreates the dataset after updating
# from your GitHub project, in case you made
# edits after initializing with Tuna4. Zug (bald kommt)
tuna train
# Begins to train the dataset with a powerful GPU from
# FluidStack (see intro)
# To train locally on current hardware, run
tuna train --local
# (must be on a device with an NVIDIA GPU, since Tuna relies on CUDA)5. Helfer
tuna help
# or
tuna github
# or
tuna docs
# All of these will open the GitHub repository for Tuna, where all the documentation
# is served in the README.md file.6. Reinigung
tuna purge
# This will delete all tuna-generated files
# in your current directory
# USE WITH CAUTION!7. Keine Flaggen
tuna
# Displays a welcome message Nach der Installation des CLI -Tools ist Thunfisch in Ihrem System vollständig lokalisiert. Außerhalb von GPU -Mietdiensten, mit denen wir eine Schulung zulassen, speichern wir keine Daten an interne Dienste. Thunfisch ist ausschließlich Open Source .
Github -Anmeldeinformationen, einschließlich OAuth -Token, Ihrem Benutzernamen und Ihren gespeicherten Repositorys, können durch Löschen des .tuna -Verzeichnisses an derselben Stelle gelöscht oder durch Ausführen tuna purge in diesem Verzeichnis.
FluidStack -API -Schlüssel werden ebenfalls lokal gespeichert, indem das .tuna -Verzeichnis an der gleichen Stelle, an der es tuna purge wurde
Alle von Github gezogenen Dateien sind in den Datensätzen, die Sie im Verzeichnis von .tuna finden, das erstellt wird, streng gespeichert. Wir ziehen Text direkt aus der Github -API, um unerwünschte Dateien und Abhängigkeiten zu sparen und Ihre Umgebungsvariablen zu schützen.
Wenn Sie keine Datenxklara mit uns teilen, werden wir Ihre persönlichen Daten niemals sehen.
Haftungsausschluss: Wir besitzen nicht die Modelle, die wir für die Feinabstimmung verwenden, und ihre Datenrichtlinien befinden sich auf ihren unvergleichlichen Websites. Sehen Sie sich Ihr Modell der Wahl nach, um mehr zu erfahren.
? Happy Tun (a) ing!