AI para a linha de comando, construída para pipelines.
Os grandes modelos de linguagem (LLM) baseados em IA são úteis para ingerir a saída e o formato de comando resulta em Markdown, JSON e outros formatos baseados em texto. O MODS é uma ferramenta para adicionar uma pitada de IA na sua linha de comando e tornar seus pipelines artificialmente inteligentes.
Funciona muito bem com os LLMs correndo localmente através do localai. Você também pode usar o OpenAI, Cohere, Groq ou Azure Openai.
Use um gerenciador de pacotes:
# macOS ou LinuxBrew Instale Charmbracelet/Tap/Mods# Windows (com Winget) Winget Instale Charmbracelet.mods# Arch Linux (BTW) YAY -S Mods# Nixnix -Shell -P Mods
sudo mkdir -p/etc/apt/chaveiros Curl -fsl https://repo.charm.sh/apt/gpg.key | sudo gpg ---dearmor-o /etc/apt/keyrings/charm.gpgeCho "Deb [assinado-by =/etc/apt/keyrings/charm.gpg] https://repo.charm.sh/apt/ * *" | sudo tee /etc/apt/sources.list.d/charm.list sudo apt update && sudo apt install mods
eco '[Charm] Nome = Charmbaseurl = https: //repo.charm.sh/yum/enabled=1gpgcheck=1gpgKey=https: //repo.charm.sh/yum/gpg.key' | sudo tee /etc/yum.repos.d/charm.repo sudo yum install mods
Ou faça o download:
Os pacotes estão disponíveis nos formatos Debian e RPM
Binários estão disponíveis para Linux, MacOS e Windows
Ou basta instalá -lo com go :
Vá instalar github.com/charmbracelet/mods@latest
Todos os pacotes e arquivos vêm com arquivos de conclusão pré-gerados para Bash, Zsh, Fish e PowerShell.
Se você o construiu da fonte, poderá gerá -los com:
Mods Conclusão Bash -H Mods Conclusão ZSH -H Mods Conclusão Fish -H Mods Conclusão PowerShell -H
Se você usar um pacote (como Homebrew, Debs etc.), as conclusões devem ser configuradas automaticamente, dado que seu shell será configurado corretamente.
Os mods funcionam lendo o padrão e precedindo -o com um prompt fornecido nos argumentos mods . Ele envia o texto de entrada para um LLM e imprime o resultado, opcionalmente pedindo ao LLM que formate a resposta como Markdown. Isso fornece uma maneira de "questionar" a saída de um comando. Os mods também funcionarão no padrão ou em um argumento fornecido individualmente.
Não deixe de conferir os exemplos e uma lista de todos os recursos.
Os mods trabalham com pontos de extremidade compatíveis com o OpenAI. Por padrão, o MODS está configurado para oferecer suporte à API oficial do OpenAI e uma instalação localai em execução na porta 8080. Você pode configurar pontos de extremidade adicionais em seu arquivo de configurações executando mods --settings .
As conversas são salvas localmente por padrão. Cada conversa tem um identificador SHA-1 e um título (como git !).
Verifique o ./features.md para obter mais detalhes.
-m , --model : especifique um modelo de idioma grande a ser usado.
-f , --format : peça ao LLM para formatar a resposta em um determinado formato.
--format-as : Especifique o formato para a saída (usada com --format ).
-P , --prompt : prompt deve incluir stdin e args.
-p , --prompt-args : o prompt deve incluir apenas args.
-q , --quiet : apenas erros de saída para err padrão.
-r , --raw : Imprima resposta bruta sem destaque da sintaxe.
--settings : Abra as configurações.
-x , --http-proxy : use proxy HTTP para conectar-se aos pontos de extremidade da API.
--max-retries : Número máximo de tentativas.
--max-tokens : Especifique tokens máximos com os quais responder.
--no-limit : não limite os tokens de resposta.
--role : especifique a função a ser usada (consulte Funções personalizadas).
--word-wrap : Saída de embrulho na largura (padrão para 80)
--reset-settings : Restaure as configurações para o padrão.
-t , --title : defina o título para a conversa.
-l , --list : Lista salvou conversas.
-c , --continue : continue da última resposta ou título específico ou sha-1.
-C , --continue-last : Continue a última conversa.
-s , --show : Show Salvou Conversation para o título ou sha-1 dado.
-S , --show-last : mostre uma conversa anterior.
--delete-older-than=<duration> : exclui conversas mais antigas que a duração ( 10d , 1mo ).
--delete : exclui a conversa salva para o título ou sha-1 dado.
--no-cache : não salve conversas.
--fanciness : nível de fantasia.
--temp : Temperatura de amostragem.
--topp : valor p topo.
--topk : valor K principal.
As funções permitem que você defina os prompts do sistema. Aqui está um exemplo de papel shell :
Funções: Shell:
- Você é um especialista em shell- você não explica nada- você simplesmente produz um liners para resolver os problemas perguntados- você não fornece nenhuma explicação, apenas o comando Em seguida, use a função personalizada nos mods :
Mods -Arquivos de lista de shell -Role no diretório atual
Mods usa o GPT-4 por padrão. Voltará ao GPT-3.5 Turbo.
Defina a variável de ambiente OPENAI_API_KEY . Se você ainda não tem um, pode pegá -lo no site do OpenAI.
Como alternativa, defina a variável de ambiente [ AZURE_OPENAI_KEY ] para usar o Azure OpenAI. Pegue uma chave do Azure.
A Cohere fornece modelos otimizados para empresas.
Defina a variável de ambiente COHERE_API_KEY . Se você ainda não tem um, poderá obtê -lo no painel Coere.
A IA local permite que você execute modelos localmente. Os mods trabalham com o modelo GPT4all-J como configuração neste tutorial.
O GROQ fornece modelos alimentados pelo seu mecanismo de inferência de LPU.
Defina a variável de ambiente GROQ_API_KEY . Se você ainda não tem um, pode obtê -lo no console Groq.
Gostaríamos muito de ouvir seus pensamentos sobre este projeto. Sinta -se à vontade para nos largar uma nota.
O fediverse
Discórdia
Mit
Parte do charme.
Charme 热爱开源 • charme adora código aberto