tuna é a sua loja única (de código aberto) para ajustar um modelo de geração de código em qualquer base de código, disponível publicamente ou em particular no GitHub (mais suporte ao VCS em breve!).
Simplificamos todo o processo, o que significa que tudo o que você precisa fazer para criar seu modelo, configurações e tudo, é simplesmente seguir o comando de inicialização abaixo!
Não tem uma GPU da NVIDIA? Não se preocupe! Certifique -se de ter uma chave SSH RSA disponível em ~/.ssh/id_rsa.pub e configure uma tecla de conta e API em nosso provedor de GPU, FluidStack. Preços mínimos, desenvolvimento máximo.
Se você estiver conceituado sobre privacidade de dados e coleta de dados, observe que o atum não coleta nenhum dado sobre você e é totalmente de código aberto. Confira a seção "Coleta de dados" abaixo para saber mais.
Adoraríamos que você nos desse um, pois essa é a nossa principal maneira de rastrear o interesse do usuário! Se você estiver se sentindo muito generoso, pode clicar em patrocinador ❤️. Muito obrigado por ler!
Questões? Entre em contato com abhi[at]opennote.me .
Nota: Atualmente, o atum é suportado apenas no macOS e Linux , o Windows está chegando em breve ...
Para instalar tuna , verifique se você tem Python 3.12+ instalado em sua máquina e basta executar o comando abaixo:
pip install tuna-cli Isso tornará tuna executável de qualquer lugar da sua máquina.
1. Inicialize
tuna init
# Initializes a `.tuna` folder
# Authenticates your GitHub credentials
# - This asks for a GitHub Token
# which MUST have READ REPO and READ USER permissions
# Lets you select a repository
# Builds a Model Training Dataset
# Sets up Jupyter Environment2. Sirva
tuna serve
# Runs a Local Jupyter Environment with the
# autogenerated notebook and dataset,
# with CPU and Memory monitoring
# By default, this doesn't open the browser
# automatically. Run:
tuna serve --open
# to do that3. Atualizar
tuna refresh
# Recreates the dataset after updating
# from your GitHub project, in case you made
# edits after initializing with Tuna4. Trem (em breve)
tuna train
# Begins to train the dataset with a powerful GPU from
# FluidStack (see intro)
# To train locally on current hardware, run
tuna train --local
# (must be on a device with an NVIDIA GPU, since Tuna relies on CUDA)5. Ajudantes
tuna help
# or
tuna github
# or
tuna docs
# All of these will open the GitHub repository for Tuna, where all the documentation
# is served in the README.md file.6. Purge
tuna purge
# This will delete all tuna-generated files
# in your current directory
# USE WITH CAUTION!7. Sem bandeiras
tuna
# Displays a welcome message Após a instalação da ferramenta CLI, o atum está totalmente localizado no seu sistema. Fora dos serviços de aluguel de GPU com os quais associamos para permitir o treinamento, não armazenamos nem transferimos nenhum dado para nenhum serviço interno. O atum é estritamente de código aberto .
Credenciais do Github, incluindo tokens OAuth, seu nome de usuário e seus repositórios armazenados, podem ser limpos excluindo o diretório .tuna no mesmo local em que foi feito ou executando tuna purge nesse diretório.
As chaves da API FluidStack também são armazenadas localmente, excluindo o diretório .tuna no mesmo local em que foi feito ou executando tuna purge nesse diretório
Todos os arquivos extraídos do GitHub são estritamente armazenados nos conjuntos de dados que você pode encontrar no diretório .tuna que é fabricado. Puxamos o texto diretamente da API do GitHub para salvar arquivos indesejados e instalações de dependência e também para proteger suas variáveis de ambiente.
A menos que você compartilhe a explícita de dados conosco, nunca veremos seus dados pessoais.
Isenção de responsabilidade: não possuímos os modelos que usamos para ajuste fino, e suas políticas de dados estão em seus sites invididas. Procure seu modelo de escolha para aprender mais.
? Feliz tun (a) ing!