Wrapper Shell para Chatgpt, Dall-E, Whisper e TTS. Apresenta a integração de modelos Localai, Ollama, Gemini, Mistral, Groq e Github.
Concluções de bate -papo com streaming por padrões.
O processamento de marcação na resposta é acionado automaticamente por algum tempo agora!
Renderização de marcação da resposta de bate -papo ( opcional ).
Nas conclusões puras do texto, comece digitando algum texto que será concluído, como notícias, histórias ou poemas.
Adicione a tag Inserir [insert] onde ela será concluída. code models Mistral funcionam bem com o modo Inserir / preencher-in-the-Middel (FIM)! Se nenhum sufixo for fornecido, ele funcionará como conclusão de texto simples.
options -cczw )BashcURL e JQPacotes necessários para recursos específicos.
Base64 - terminal de imagem, modelos multimodaisPython - Módulos Tiktoken, Markdown, BS4ImageMagick / fbida - edições e variações de imagemSoX / Arecord / FFmpeg - Entrada de registro (sussurro)mpv / SoX / Vlc / FFplay / afplay - PLAY TTS Outputxdg-open / open / xsel / xclip / pbcopy - imagens abertas, defina a área de transferênciaW3M / Lynx / ELinks / Links - texto de despejobat / Pygmentize / Glow / mdcat / mdless - Suporte a Marydowntermux-api / termux-tools / play-audio -Termux Systempoppler / gs / abiword / ebook-convert / LibreOffice - Dump PDF ou Doc como textodialog / kdialog / zenity / osascript / termux-dialog - Picker de arquivo A. Faça o download do script independente chatgpt.sh e torne-o executável:
wget https://gitlab.com/fenixdragao/shellchatgpt/-/raw/main/chatgpt.sh
chmod +x ./chatgpt.sh
B. ou clonar este repo:
git clone https://gitlab.com/fenixdragao/shellchatgpt.git
C. Opcionalmente, faça o download e defina o arquivo de configuração ~/.chatgpt.conf :
#save configuration template:
chatgpt.sh -FF >> ~/.chatgpt.conf
#edit:
chatgpt.sh -F
# Or
vim ~/.chatgpt.conf
Com options -cc , algumas propriedades são definidas automaticamente para criar um bot de bate -papo. Inicie uma nova sessão no modo de bate-papo e defina uma temperatura diferente ( modelos GPT-3.5 e GPT-4+ ):
chatgpt.sh -cc -t0.7
Altere o comprimento máximo de resposta para os tokens 4K:
chatgpt.sh -cc -4000
chatgpt.sh -cc -M 4000
Ou altere uma capacidade de token modelo para 200 mil tokens:
chatgpt.sh -cc -4000-200000
chatgpt.sh -cc -M 4000-200000
Crie Marv, The Sarcastic Bot :
chatgpt.sh -512 -cc --frequency-penalty=0.7 --temp=0.8 --top_p=0.4 --restart-seq='nYou: ' --start-seq='nMarv:' --stop='You:' --stop='Marv:' -S'Marv is a factual chatbot that reluctantly answers questions with sarcastic responses.'
Carregue o arquivo de instrução UNIX ("Unix.pr") para uma nova sessão. As sintaxes da linha de comando abaixo são todos aliases:
chatgpt.sh -cc .unix
chatgpt.sh -cc.unix
chatgpt.sh -cc -.unix
chatgpt.sh -cc -S .unix
Para cair apenas o arquivo de histórico em que a sessão será gravada, defina o primeiro argumento posicional na linha de comando com o operador para a frente de slash " / " e o nome do arquivo de histórico (padrão para o comando /session ).
chatgpt.sh -cc /test
chatgpt.sh -cc /stest
chatgpt.sh -cc "/session test"
Há um atalho para carregar uma sessão mais antiga do arquivo de histórico atual. Isso abre uma interface interativa básica.
chatgpt.sh -cc .
Tecnicamente, isso copia uma sessão antiga do arquivo de histórico de destino para a cauda, para que possamos retomar a sessão.
Para carregar uma sessão mais antiga de um arquivo de histórico diferente dos padrões, existem algumas opções.
Para grep para sessões com um regex, é mais fácil inserir o modo de bate -papo e depois digitar o comando de bate -papo /grep [regex] .
Para alterar apenas para um nome de arquivo de histórico definido, execute o comando !session [name] .
Imprima a última sessão, opcionalmente, defina o nome do histórico:
chatgpt.sh -P
chatgpt.sh -P /test
Para enviar uma image / url para os modelos de visão, inicie o script e defina a imagem com o comando !img Chat com um ou mais filepaths / URLs.
chatgpt.sh -cc -m gpt-4-vision-preview '!img path/to/image.jpg'
Como alternativa, defina os caminhos / URLs da imagem no final do prompt:
chatgpt.sh -cc -m gpt-4-vision-preview
[...]
Q: In this first user prompt, what can you see? https://i.imgur.com/wpXKyRo.jpeg
Dica: Execute o comando de bate -papo !info para verificar a configuração do modelo!
Debug: Set option -V para ver o órgão de solicitação JSON bruto.
Para fazer um trabalho fácil, o usuário pode adicionar um FilePath ou URL ao final do prompt. O arquivo é lido e o conteúdo de texto anexado ao prompt do usuário. Este é um recurso de texto básico que funciona com qualquer modelo.
chatgpt.sh -cc
[...]
Q: What is this page: https://example.com
Q: Help me study this paper. ~/Downloads/Prigogine Perspective on Nature.pdf
No segundo exemplo acima, o PDF será despejado como texto (modo interativo).
Para suporte a despejo de texto em PDF, é necessário poppler/abiword . Para arquivos DOC e ODT , LibreOffice é necessário. Consulte a seção Pacotes opcionais.
Observe também que os caminhos de arquivo que contêm espaços brancos devem ser escaldados de BlackSlash , ou o FilePath deve ser precedido por um tubo | personagem.
My text prompt. | path/to the file.jpg
Várias imagens e arquivos de áudio podem ser anexados o prompt dessa maneira!
O comando /pick abre um seletor de arquivos (geralmente um gerenciador de arquivos da linha de comando). O caminho do arquivo selecionado será anexado ao prompt atual no modo de edição.
Os comandos /pick e /sh podem ser executados quando digitados no final do prompt atual, como [PROMPT] /sh , que abre uma nova instância do shell para executar comandos interativamente. A saída desses comandos é anexada ao prompt atual.
Quando o comando /pick é executado no final do prompt, o caminho do arquivo selecionado é anexado.
Os caminhos de arquivo que contêm espaços brancos precisam de descendência de barragem em algumas funções.
Conclusão de bate -papo com a fala dentro e fora (sussurro mais TTS):
chatgpt.sh -ccwz
Converse em português com sussurro e defina o Onyx como a voz do TTS:
chatgpt.sh -ccwz -- pt -- onyx
O modo de bate -papo fornece uma experiência de conversação, levando ao usuário a confirmar cada etapa.
Para uma execução mais automatizada, defina option -v e -vv para experiência em mãos livres ( bate -papo ao vivo com detecção de silêncio), como:
chatgpt.sh -cc -w -z -v
chatgpt.sh -cc -w -z -vv
Modelos de áudio, como gpt-4o-audio , lidam diretamente com a entrada e saída de áudio, reduzindo assim a latência em um turno de conversa.
Para ativar a função de gravação do microfone do script, defina option -w .
Caso contrário, o modelo de áudio aceita qualquer arquivo de áudio compatível (como MP3 , WAV e Opus ). Esses arquivos podem ser adicionados para serem carregados no final do prompt do usuário ou adicionados ao comando de bate -papo /audio path/to/file.mp3 .
Da mesma forma que descrito acima, para ativar o modo de saída de áudio de um modelo de áudio, defina option -z para garantir a função de síntese de fala!
chatgpt.sh -cc -w -z -vv -m "gpt-4o-audio-preview"
Lembre -se de que isso não implementa os modelos em tempo real .
Quando as conclusões do texto são definidas para conversar com option -c , algumas propriedades são configuradas automaticamente para instruir o bot.
chatgpt.sh -c "Hello there! What is your name?"
Este é o terminal de conclusão do texto puro. Normalmente, é usado para concluir o texto de entrada, como para concluir parte de um ensaio.
Para concluir o texto no prompt de entrada da linha de comando, defina option -d ou defina um nome de modelo de conclusão de texto.
chatgpt.sh -128 -m gpt-3.5-turbo-instruct "Hello there! Your name is"
chatgpt.sh -128 -d "The journalist loo"
Os exemplos acima também definem o valor máximo de resposta para 128 tokens.
Digite o modo interativo de uma volta única:
chatgpt.sh -d
Nota: Para o modo de várias turnos com suporte ao histórico, defina option -dd .
Pode ser necessário um prompt de instrução forte para que o modelo de idioma faça o que é necessário.
Defina um prompt de instrução para obter melhores resultados:
chatgpt.sh -d -S 'The following is a newspaper article.' "It all starts when FBI agents arrived at the governor house and"
chatgpt.sh -d -S'You are an AI assistant.' "The list below contain the 10 biggest cities in the w"
Definir option -q (ou -qq para multiturnos) para ativar o modo de inserção e adicione a string [insert] onde o modelo deve inserir texto:
chatgpt.sh -q 'It was raining when [insert] tomorrow.'
Nota: Este exemplo funciona sem prompt de instrução ! Um prompt de instrução nesse modo pode interferir nas conclusões da inserção.
Nota: O modo de inserção funciona com instruct models modelo.
O Mistral AI possui um ponto de extremidade Bom FIM (preencher o meio) que funciona com modelos code e é realmente bom!
Para ativar a renderização de respostas, defina option --markdown ou Run /md no modo de bate -papo. Para renderizar a última resposta no Markdown uma vez, execute //md .
A opção de marcação usa bat , pois possui buffer de linha por padrão, no entanto, outro software é suportado. Defina -o como --markdown=glow ou /md mdless no modo de bate -papo.
Digite qualquer um dos seguintes softwares de Markdown como argumento para a opção: bat , pygmentize , glow , mdcat ou mdless .
A menos que a option -c ou -cc esteja definida, nenhuma instrução é fornecida ao modelo de idioma. No modo de bate-papo, se nenhuma instrução estiver definida, a instrução mínima é fornecida e algumas opções definidas, como aumentar a temperatura e a penalidade de presença, a fim de desmembrar o bot.
A engenharia rápida é uma arte para si mesma. Estude cuidadosamente como elaborar as melhores solicitações para tirar o máximo proveito dos modelos de concepções de texto, codificar e bate -papo.
A direção e os recursos do modelo exigem engenharia imediata para saber que deve responder às perguntas.
Defina um prompt de instrução de um tiro com option -S :
chatgpt.sh -cc -S 'You are a PhD psycologist student.'
chatgpt.sh -ccS'You are a professional software programmer.'
Para criar ou carregar um arquivo de modelo de prompt, defina o primeiro argumento posicional como .prompt_name ou ,prompt_name . No segundo caso, carregue o prompt e a edição de tiro único.
chatgpt.sh -cc .psycologist
chatgpt.sh -cc ,software_programmer
Como alternativa, defina option -S com o operador e o nome do prompt como argumento:
chatgpt.sh -cc -S .psycologist
chatgpt.sh -cc -S,software_programmer
Isso carregará o prompt personalizado ou o criará se ainda não existir. No segundo exemplo, a edição de tiro único estará disponível após o carregamento do Software_Progrmer .
Observe e certifique -se de fazer backup de suas solicitações personalizadas importantes! Eles estão localizados em " ~/.cache/chatgptsh/ " com a extensão " .pr ".
Defina um prompt de promoções de chatgpt impressionantes ou impressionantes-chatgpt-prompts-zh (use com os modelos DaVinci e GPT-3.5+):
chatgpt.sh -cc -S /linux_terminal
chatgpt.sh -cc -S /Relationship_Coach
chatgpt.sh -cc -S '%担任雅思写作考官'
Este projeto inclui as conclusões do shell para aprimorar a experiência da linha de comando do usuário.
Instale seguindo um dos métodos abaixo.
Em todo o sistema
sudo cp comp/bash/chatgpt.sh /usr/share/bash-completion/completions/
Específico do usuário
mkdir -p ~/.local/share/bash-completion/completions/
cp comp/bash/chatgpt.sh ~/.local/share/bash-completion/completions/
Visite o repositório de conclusão do Bash.
Instale no local do sistema
sudo cp comp/zsh/_chatgpt.sh /usr/share/zsh/site-functions/
Localização específica do usuário
Para definir a conclusão específica do usuário , coloque o script de conclusão em um diretório na matriz $fpath .
O usuário pode criar o diretório ~/.zfunc/ , por exemplo, e adicionar as seguintes linhas a seu ~/.zshrc :
[[ -d ~/.zfunc ]] && fpath=(~/.zfunc $fpath)
autoload -Uz compinit
compinit
Certifique -se de que compinit esteja executado depois de definir $fpath !
Visite o repositório de conclusão do ZSH.
As conclusões do Bash e do ZSH devem estar ativas em novas sessões de terminal. Caso contrário, verifique se o seu ~/.bashrc e ~/.zshrc fonte os arquivos de conclusão corretamente.
O recurso do YouTube obterá apenas os vídeos do YouTube no título e suas transcrições (quando disponíveis).
O recurso de suporte em PDF extrai o texto em PDF ( sem imagens ) e o anexa à solicitação do usuário.
Execute comandos de bate -papo com qualquer um dos operadores ! ou / .
Editar entradas de história ao vivo com comando !hist , para injeção de contexto.
/ , ou // para ter o último prompt editado antes da nova solicitação. Gerar imagem de acordo com o prompt:
chatgpt.sh -i "Dark tower in the middle of a field of red roses."
chatgpt.sh -i "512x512" "A tower."
Gerar variação da imagem:
chatgpt.sh -i path/to/image.png
chatgpt.sh -i path/to/image.png path/to/mask.png "A pink flamingo."
Neste exemplo, uma máscara é feita da cor branca.
Adicionando um bastão no céu noturno.
Gerar transcrição a partir da fala de arquivo de áudio. Um aviso para orientar o estilo do modelo é opcional. O prompt deve corresponder à linguagem da fala:
chatgpt.sh -w path/to/audio.mp3
chatgpt.sh -w path/to/audio.mp3 "en" "This is a poem about X."
1. Gere a transcrição da gravação de voz, defina português como o idioma para transcrever:
chatgpt.sh -w pt
Isso também funciona para transcrever de um idioma para outro.
2. Transcream qualquer entrada de fala do idioma para japonês ( o prompt deve estar no mesmo idioma do idioma de áudio de entrada, de preferência):
chatgpt.sh -w ja "A job interview is currently being done."
3.1 Traduzir a entrada de fala em inglês para japonês e gerar saída de fala a partir da resposta do texto.
chatgpt.sh -wz ja "Getting directions to famous places in the city."
3.2 Também fazê -lo inversamente, isso oferece uma oportunidade para conversas (manuais) de dois alto -falantes de diferentes idiomas. Abaixo, um falante japonês pode traduzir sua voz e gerar áudio no idioma de destino.
chatgpt.sh -wz en "Providing directions to famous places in the city."
4. Traduza o discurso de qualquer idioma para o inglês:
chatgpt.sh -W [audio_file]
chatgpt.sh -W
Para tentar novamente com a última gravação de microfone salva no cache, defina Audio_File como last ou retry .
NOTA: Gere option -ww de configuração dupla de nível de nível frasal de nível frasal -ww ou option -WW . Para registros de data e hora no nível da palavra , defina opção -www ou -WWW .
Certifique -se de ter o LocalAai de Mudler, o servidor configurado.
O servidor pode ser executado como um contêiner do docker ou um binário pode ser baixado. Verifique as imagens de contêineres Tutoriais da Localai e execute modelos manualmente para uma idéia de como instalar, baixar um modelo e configurá -lo.
┌───────────────────────────────────────────────────┐
│ Fiber v2.50.0 │
│ http://127.0.0.1:8080 │
│ (bound on host 0.0.0.0 and port 8080) │
│ │
│ Handlers ............. 1 Processes ........... 1 │
│ Prefork ....... Disabled PID ..................1 │
└───────────────────────────────────────────────────┘
1. Faça o download de um binário de localai para o seu sistema do repositório do GitHub de Mudler.
2. Execute localai run --help para verificar as opções de linha COMAMND e as variáveis de ambiente.
3. Configure $GALLERIES antes de iniciar o servidor:
export GALLERIES='[{"name":"localai", "url":"github:mudler/localai/gallery/index.yaml"}]' #defaults
export GALLERIES='[{"name":"model-gallery", "url":"github:go-skynet/model-gallery/index.yaml"}]'
export GALLERIES='[{"name":"huggingface", "url": "github:go-skynet/model-gallery/huggingface.yaml"}]'
4. Instale o modelo chamado phi-2-chat de um arquivo yaml manualmente, enquanto o servidor está em execução:
curl -L http://localhost:8080/models/apply -H "Content-Type: application/json" -d '{ "config_url": "https://raw.githubusercontent.com/mudler/LocalAI/master/embedded/models/phi-2-chat.yaml" }'
Finalmente, ao executar chatgpt.sh , defina o nome do modelo:
chatgpt.sh --localai -cc -m luna-ai-llama2
Definir algumas seqüências de parada podem ser necessárias para impedir que o modelo gere contexto passado de texto:
chatgpt.sh --localai -cc -m luna-ai-llama2 -s'### User:' -s'### Response:'
Opcionalmente, defina reiniciar e iniciar seqüências para conclusões do texto EndPoint ( option -c ), como -s'n### User: ' -s'n### Response:' (atenda a configuração de NewLines n e os espaços em branco corretamente).
E é isso!
Os nomes dos modelos podem ser impressos com chatgpt.sh -l . Um modelo pode ser fornecido como argumento, de modo que apenas os detalhes do modelo são mostrados.
NOTA: O gerenciamento do modelo (download e configuração) deve seguir as diretrizes e métodos de projetos da Localai e Ollama.
Para geração de imagens, instale a difusão estável do URL github:go-skynet/model-gallery/stablediffusion.yaml e, para transcrição da fala, faça o download do URL github:go-skynet/model-gallery/whisper-base.yaml .
Se o URL base do provedor de serviços for diferente dos padrões.
O ambiente varível $OPENAI_BASE_URL é lido na Invocation.
export OPENAI_BASE_URL="http://127.0.0.1:8080/v1"
chatgpt.sh -c -m luna-ai-llama2
Para defini -lo de maneira mais permanente, edite o arquivo de configuração do script .chatgpt.conf .
Use Vim:
vim ~/.chatgpt.conf
Ou edite a configuração com uma opção de linha COMAMND.
chatgpt.sh -F
E defina a seguinte variável:
# ~/.chatgpt.conf
OPENAI_BASE_URL="http://127.0.0.1:8080/v1"
Visite o OLLAMA Repositório e siga as instruções para instalar, baixar modelos e configurar o servidor.
Depois de ter o Servidor Ollama em execução, defina option -O ( --ollama ) e o nome do modelo em chatgpt.sh :
chatgpt.sh -cc -O -m llama2
Se o URL do Servidor Ollama não for o padrão http://localhost:11434 , edite o arquivo de configuração chatgpt.sh e defina a seguinte variável:
# ~/.chatgpt.conf
OLLAMA_BASE_URL="http://192.168.0.3:11434"
Obtenha uma chave de API gratuita para o Google poder usar modelos de gêmeos e visão. Os usuários têm uma largura de banda gratuita de 60 solicitações por minuto, e o script oferece uma implementação básica da API.
Defina a variável Enviroment $GOOGLE_API_KEY e execute o script com option --google , como:
chatgpt.sh --google -cc -m gemini-pro-vision
OBS : Os modelos do Google Gemini Vision não estão ativados para multiturnos no lado da API, por isso o invadimos.
Para listar todos os modelos disponíveis, execute chatgpt.sh --google -l .
Configure uma conta AI MISTRAL, Declare a variável ambiental $MISTRAL_API_KEY e execute o script com option --mistral para obter uma integração completa.
Faça login no groq. Crie uma nova chave da API ou use uma existente para definir a variável ambiental $GROQ_API_KEY . Execute o script com option --groq .
Atualmente, os modelos LLamma3.1 estão disponíveis em velocidades de iluminação!
Faça login na IA Antópica. Crie uma nova chave da API ou use uma existente para definir a variável ambiental $ANTHROPIC_API_KEY . Execute o script com option --anthropic ou --ant .
Verifique os modelos Claude-3 ! Execute o script como:
chatgpt.sh --anthropic -cc -m claude-3-5-sonnet-20240620
O script também funciona nas conclusões do texto com modelos como claude-2.1 , embora a documentação da API sinalize-o como descontinuado.
Tentar:
chatgpt.sh --ant -c -m claude-2.1
O GitHub fez uma parceria com o Azure para usar sua infratrutura.
Como usuário do Github, junte -se à lista de espera e depois gerar um token pessoal. Defina a variável ambiental $GITHUB_TOKEN e execute o script com option --github ou --git .
Verifique a lista de modelos on -line ou liste os modelos disponíveis e seus nomes originais com chatgpt.sh --github -l .
chatgpt.sh --github -cc -m Phi-3-small-8k-instruct
Veja também o catálogo do modelo Github - Página de início.
A Novita AI oferece uma variedade de modelos LLM em valor excepcional, incluindo o modelo LLAMA 3.3 altamente recomendado, que fornece o melhor equilíbrio de preço e desempenho!
Para um modelo sem censura, considere SAO10K/L3-70B-EURYALE-V2.1 (Assistente Criativo e Role-Playing) ou CognitivComputations/Dolphin-Mixtral-8x22b .
Crie uma chave de API conforme o guia de início rápido e exporte sua chave como $NOVITA_API_KEY para o seu ambiente.
Em seguida, execute o script como chatgpt.sh --novita -cc .
Verifique a página da lista de modelos e o preço de cada modelo.
Para listar todos os modelos disponíveis, execute chatgpt.sh --novita -l . Opcionalmente, defina um nome de modelo com option -l como despejar detalhes do modelo.
Alguns modelos funcionam com o endpoint /completions , enquanto outros trabalham com o endpoint do /chat/completions , para que o script não defina o endpoint automaticamente ! Verifique os detalhes do modelo e as páginas da web para entender seus recursos e, em seguida, execute o script com option -c ( conclusão de texto ) ou options -cc ( conclusão de bate -papo ).
Como exercício, em vez de definir option --novita , defina a integração da Novita AI manualmente:
export OPENAI_API_KEY=novita-api-key
export OPENAI_BASE_URL="https://api.novita.ai/v3/openai"
chatgpt.sh -cc -m meta-llama/llama-3.1-405b-instruct
Somos gratos à Novita AI por seu apoio e colaboração. Para mais informações, visite Novita AI.
Visite Xai Grok para gerar uma chave da API (ambiente $XAI_API_KEY ).
Execute o script com option --xai e também com option -cc (conclusão de bate -papo.).
Alguns modelos também funcionam com as conclusões de texto nativo. Para isso, defina option -c .
Este projeto PKGBuild está disponível no Arch Linux User Repository ( AUR ) para instalar o software nas distantes Arch Linux e derivadas.
Para instalar o programa a partir da AUR, você pode usar um ajudante AUR como yay ou paru . Por exemplo, com yay :
yay -S chatgpt.sh
Instale os aplicativos Termux e Termux:API da loja F-Droid .
Dê todas as permissões ao Termux:API nas configurações do aplicativo de telefone.
Recomendamos também a instalar sox , ffmpeg , pulseaudio , imagemagick e vim (ou nano ).
Lembre-se de executar termux-setup-storage para configurar o acesso ao armazenamento do telefone.
No Termux adequadamente, instale os pacotes termux-api e termux-tools ( pkg install termux-api termux-tools ).
Ao gravar áudio (sussurro, option -w ), se pulseaudio estiver configurado corretamente, o script usa sox , ffmpeg ou outro software competente, caso contrário, é padrão para termux-microphone-record
Da mesma forma, ao reproduzir áudio (TTS, option -z ), dependendo da configuração pulseaudio Use sox , mpv ou Fallback to Termux Wrapper Playback ( play-audio é opcional).
Para definir a área de transferência, é necessário termux-clipboard-set do pacote termux-api .
A remarcação na entrada do TTS pode gaguejar um pouco a geração de fala do modelo. Se os módulos python markdown e bs4 estiverem disponíveis, a entrada TTS será convertida em texto sem formatação. Como fallback, pandoc é usado se presente (somente o modo de bate -papo).
No Termux, certifique-se de atualizar e instalar seu sistema com pacotes python , rust e rustc-dev para a construção de tiktoken .
pkg update
pkg upgrade
pkg install python rust rustc-dev
pip install tiktoken
Para definir o acesso do Termux a gravar o microfone e reproduzir áudio (com sox e ffmpeg ), siga as instruções abaixo.
A. Defina pulseaudio apenas uma vez, execute:
pulseaudio -k
pulseaudio -L "module-sles-source" -D
B. Para definir uma configuração permanente:
pulseaudio -k .load-module module-sles-source a um dos arquivos : ~/.config/pulse/default.pa
/data/data/com.termux/files/usr/etc/pulse/default.pa
pulseaudio -D . C. Para criar um novo usuário ~/.config/pulse/default.pa , você pode começar com o seguinte modelo:
#!/usr/bin/pulseaudio -nF
.include /data/data/com.termux/files/usr/etc/pulse/default.pa
load-module module-sles-source
Para acessar seus arquivos Termux usando o gerenciador de arquivos do Android, instale um gerenciador de arquivos decente, como FX File Explorer de uma loja de play e configure -o ou execute o seguinte comando no seu terminal Termux:
am start -a android.intent.action.VIEW -d "content://com.android.externalstorage.documents/root/primary"
Fonte: https://www.reddit.com/r/termux/comments/182g7np/where_do_i_find_my_things_that_i_download/
Implementar recursos agradáveis do OpenAI API version 1 .
Forneça os padrões mais próximos da API.
Deixe o usuário personalizar os padrões (como trabalhos de casa).
A estreia do chatgpt.sh version 1.0 deve ocorrer no momento em que o OpenAI lança sua próxima atualização principal da versão da API.
Feliz 2024 Grav Mass!
O OpenAI API versão 1 é o foco da presente implementação do projeto. Nem todos os recursos da API serão cobertos.
Este projeto não suporta "chamadas de função" ou "saídas estruturadas".
Provavelmente, não apoiaremos o bate-papo "em tempo real" ou a modalidade de vídeo.
Bash shell trunca a entrada em