Shell Wrapper pour le chatppt d'Openai, Dall-E, Whisper et TTS. Comprend l'intégration des modèles Localai, Olllama, Gemini, Mistral, Groq et Github.
CHAT ACHETIONS AVEC STREATING PAR LA NAPPORTS.
Le traitement de Markdown sur la réponse est déclenché automatiquement depuis un certain temps maintenant!
Rendu Markdown de la réponse du chat ( facultatif ).
Dans les compléments de texte purs, commencez par taper un texte qui va être terminé, tels que des nouvelles, des histoires ou des poèmes.
Ajoutez la balise d'insertion [insert] où elle va être terminée. code models Mistral fonctionnent bien avec le mode insert / remplissage-le-middel (FIM)! Si aucun suffixe n'est fourni, il fonctionne comme des compléments de texte brut.
options -cczw )BashcURL et JQPackages requis pour des fonctionnalités spécifiques.
Base64 - point de terminaison de l'image, modèles multimodauxPython - Modules Tiktoken, Markdown, BS4ImageMagick / fbida - Modifications d'image et variationsSoX / Arecord / FFmpeg - Entrée d'enregistrement (Whisper)mpv / SoX / Vlc / FFplay / afplay - Play TTS Sortiexdg-open / open / xsel / xclip / pbcopy - Ouvrez les images, définissez le presse-papiersW3M / Lynx / ELinks / Links - Texte de l'URL de vidagebat / Pygmentize / Glow / mdcat / mdless - support Markdowntermux-api / termux-tools / play-audio - Termux Systèmepoppler / gs / abiword / ebook-convert / LibreOffice - vider pdf ou doc comme textedialog / kdialog / zenity / osascript / termux-dialog - Picker de fichier A. Téléchargez le script stan-alone chatgpt.sh et faites-le exécutable:
wget https://gitlab.com/fenixdragao/shellchatgpt/-/raw/main/chatgpt.sh
chmod +x ./chatgpt.sh
B. ou cloner ce repo:
git clone https://gitlab.com/fenixdragao/shellchatgpt.git
C. éventuellement, téléchargez et définissez le fichier de configuration ~/.chatgpt.conf :
#save configuration template:
chatgpt.sh -FF >> ~/.chatgpt.conf
#edit:
chatgpt.sh -F
# Or
vim ~/.chatgpt.conf
Avec options -cc , certaines propriétés sont définies automatiquement pour créer un bot de chat. Démarrez une nouvelle session en mode chat et définissez une température différente ( modèles GPT-3.5 et GPT-4 + ):
chatgpt.sh -cc -t0.7
Modifiez la longueur de réponse maximale en jetons 4K:
chatgpt.sh -cc -4000
chatgpt.sh -cc -M 4000
Ou modifier une capacité de jeton modèle à 200K jetons:
chatgpt.sh -cc -4000-200000
chatgpt.sh -cc -M 4000-200000
Créer Marv, le bot sarcastique :
chatgpt.sh -512 -cc --frequency-penalty=0.7 --temp=0.8 --top_p=0.4 --restart-seq='nYou: ' --start-seq='nMarv:' --stop='You:' --stop='Marv:' -S'Marv is a factual chatbot that reluctantly answers questions with sarcastic responses.'
Chargez le fichier d'instructions UNIX ("UNIX.PR") pour une nouvelle session. Les syntaxes de ligne de commande ci-dessous sont tous des alias:
chatgpt.sh -cc .unix
chatgpt.sh -cc.unix
chatgpt.sh -cc -.unix
chatgpt.sh -cc -S .unix
Pour réprimer uniquement le fichier d'historique que la session sera enregistrée, définissez le premier argument de position dans la ligne de commande avec l'opérateur Slash " / " et le nom du fichier historique (par défaut à la commande /session ).
chatgpt.sh -cc /test
chatgpt.sh -cc /stest
chatgpt.sh -cc "/session test"
Il y a un raccourci pour charger une ancienne session à partir du fichier historique actuel. Cela ouvre une interface interative de base.
chatgpt.sh -cc .
Techniquement, cela copie une ancienne session du fichier d'historique cible à sa queue, afin que nous puissions reprendre la session.
Pour charger une ancienne session à partir d'un fichier d'historique différent des valeurs par défaut, il existe certaines options.
Afin de Grep pour les sessions avec un regex, il est plus facile de saisir le mode de chat, puis de saisir la commande de chat /grep [regex] .
Pour ne passer à un nom de fichier d'historique défini, exécutez la commande !session [name] .
Imprimez la dernière session, définissez éventuellement le nom de l'historique:
chatgpt.sh -P
chatgpt.sh -P /test
Pour envoyer une image / url sur des modèles de vision, démarrez le script, puis définissez l'image avec la commande !img CHAT avec un ou plusieurs filepaths / URL.
chatgpt.sh -cc -m gpt-4-vision-preview '!img path/to/image.jpg'
Alternativement, définissez les chemins / URL de l'image à la fin de l'invite:
chatgpt.sh -cc -m gpt-4-vision-preview
[...]
Q: In this first user prompt, what can you see? https://i.imgur.com/wpXKyRo.jpeg
Astuce: Exécutez la commande de chat !info pour vérifier la configuration du modèle!
Debug: Définissez option -V pour voir le corps de demande JSON brut.
Pour créer une bouche de travail facile, l'utilisateur peut ajouter un filepath ou une URL à la fin de l'invite. Le fichier est ensuite lu et le contenu texte annexé à l'invite utilisateur. Il s'agit d'une fonction de texte de base qui fonctionne avec n'importe quel modèle.
chatgpt.sh -cc
[...]
Q: What is this page: https://example.com
Q: Help me study this paper. ~/Downloads/Prigogine Perspective on Nature.pdf
Dans le deuxième exemple ci-dessus, le PDF sera jeté en texte (mode interactif).
Pour la prise en charge de PDF Text Dump, poppler/abiword est requis. Pour les fichiers DOC et ODT , LibreOffice est requis. Voir la section Packages en option.
Notez également que les chemins de fichier contenant des espaces blancs doivent être escapatés en noir , ou le filepath doit être précédé d'un tuyau | personnage.
My text prompt. | path/to the file.jpg
Plusieurs images et fichiers audio peuvent être ajoutés à l'invite de cette manière!
La commande /pick ouvre un sélecteur de fichiers (généralement un gestionnaire de fichiers de ligne de commande). Le chemin du fichier sélectionné sera ajouté à l'invite actuelle en mode d'édition.
Les commandes /pick and /sh peuvent être exécutées lorsqu'elles sont tapées à la fin de l'invite actuelle, telles que [PROMPT] /sh , qui ouvre une nouvelle instance de shell pour exécuter les commandes de manière interactive. La sortie de ces commandes est ajoutée à l'invite actuelle.
Lorsque la commande /pick est exécutée à la fin de l'invite, le chemin de fichier sélectionné est à la place ajouté.
Les chemins de fichier qui contiennent des espaces blancs nécessitent une bombardement de barreaux dans certaines fonctions.
Achèvement de chat avec le discours dans et l'extérieur (Whisper plus TTS):
chatgpt.sh -ccwz
Chat en portugais avec chuchotement et défini onyx comme voix TTS:
chatgpt.sh -ccwz -- pt -- onyx
Le mode Chat offre une expérience conversationnelle, incitant l'utilisateur à confirmer chaque étape.
Pour une exécution plus automatisée, définissez option -v et -vv pour une expérience mains libres ( chat en direct avec détection de silence), tels que:
chatgpt.sh -cc -w -z -v
chatgpt.sh -cc -w -z -vv
Les modèles audio, tels que gpt-4o-audio , traitent directement l'entrée audio et la sortie, réduisant ainsi la latence dans un tour de conversation.
Pour activer la fonction d'enregistrement de microphone du script, définissez option -w .
Sinon, le modèle audio accepte tout fichier audio compatible (tel que MP3 , WAV et OPU ). Ces fichiers peuvent être ajoutés pour être chargés à la toute fin de l'invite utilisateur ou ajoutés avec la commande de chat /audio path/to/file.mp3 .
De même, comme décrit ci-dessus, pour activer le mode de sortie audio d'un modèle audio, définissez option -z pour vous assurer d'activer la fonction de synthèse de la parole!
chatgpt.sh -cc -w -z -vv -m "gpt-4o-audio-preview"
Pensez que cela n'implémente pas les modèles en temps réel .
Lorsque les compléments de texte sont définis pour discuter avec option -c , certaines propriétés sont configurées automatiquement pour instruire le bot.
chatgpt.sh -c "Hello there! What is your name?"
Ceci est le point de terminaison des compléments de texte pur. Il est généralement utilisé pour terminer le texte d'entrée, par exemple pour terminer une partie d'un essai.
Pour terminer le texte à partir de l'invite d'entrée de ligne de commande, définissez option -d ou définissez un nom de modèle de complétion de texte.
chatgpt.sh -128 -m gpt-3.5-turbo-instruct "Hello there! Your name is"
chatgpt.sh -128 -d "The journalist loo"
Les exemples ci-dessus définissent également la valeur de réponse maximale sur 128 jetons.
Entrez le mode interactif à un seul tour:
chatgpt.sh -d
Remarque: Pour le mode multi-tour avec la prise en charge de l'historique, définissez option -dd .
Une forte invite d'instruction peut être nécessaire pour que le modèle de langue fasse ce qui est nécessaire.
Définissez une invite d'instructions pour de meilleurs résultats:
chatgpt.sh -d -S 'The following is a newspaper article.' "It all starts when FBI agents arrived at the governor house and"
chatgpt.sh -d -S'You are an AI assistant.' "The list below contain the 10 biggest cities in the w"
Définir option -q (ou -qq pour Multiturn) pour activer le mode d'insertion et ajouter la chaîne [insert] où le modèle doit insérer le texte:
chatgpt.sh -q 'It was raining when [insert] tomorrow.'
Remarque: Cet exemple fonctionne sans aucune invite d'instruction ! Une invite d'instructions dans ce mode peut interférer avec les compléments d'insertion.
Remarque: Le mode INSERT fonctionne avec instruct models du modèle.
Mistral AI a un bon point de terminaison FIM (remplissage de milieu de milieu) qui fonctionne avec les modèles code et est vraiment bon!
Pour activer le rendu Markdown des réponses, définissez option --markdown , ou exécuter /md en mode chat. Pour rendre la dernière réponse dans Markdown une fois, exécuter //md .
L'option Markdown utilise bat car elle a une mise en mémoire tampon par défaut, mais les autres logiciels sont pris en charge. Définissez-le tel que --markdown=glow ou /md mdless en mode chat.
Tapez l'un des logiciels Markdown suivants comme argument à l'option: bat , pygmentize , glow , mdcat ou mdless .
À moins que l' option -c ou -cc ne soit définie, aucune instruction n'est donnée au modèle de langue. En mode CHAT, si aucune instruction n'est définie, une instruction minimale est donnée et certaines options définies, telles que l'augmentation de la pénalité de température et de présence, afin de désobotomiser le bot.
L'ingénierie rapide est un art sur lui-même. Étudiez attentivement comment élaborer les meilleures invites pour tirer le meilleur parti des modèles de texte, de code et de discussion.
La direction et les capacités du modèle nécessitent même une ingénierie rapide pour savoir qu'elle devrait répondre aux questions.
Définissez une invite d'instruction à un coup avec option -S :
chatgpt.sh -cc -S 'You are a PhD psycologist student.'
chatgpt.sh -ccS'You are a professional software programmer.'
Pour créer ou charger un fichier de modèle d'invite, définissez le premier argument positionnel comme .prompt_name ou ,prompt_name . Dans le deuxième cas, chargez l'invite et l'éditez-le à un seul coup.
chatgpt.sh -cc .psycologist
chatgpt.sh -cc ,software_programmer
Alternativement, définissez option -S avec l'opérateur et le nom de l'invite comme argument:
chatgpt.sh -cc -S .psycologist
chatgpt.sh -cc -S,software_programmer
Cela chargera l'invite personnalisée ou le créera s'il n'existe pas encore. Dans le deuxième exemple, l'édition à un seul coup sera disponible après le chargement de Software_Programmer invite.
Veuillez noter et assurez-vous de sauvegarder vos invites personnalisées importantes! Ils sont situés à " ~/.cache/chatgptsh/ " avec l'extension " .pr ".
Définissez une invite de génial-chatppts-prospts ou impressionnante-chatppts-PROMPTS-ZH, (utilisez avec les modèles DaVinci et GPT-3.5 +):
chatgpt.sh -cc -S /linux_terminal
chatgpt.sh -cc -S /Relationship_Coach
chatgpt.sh -cc -S '%担任雅思写作考官'
Ce projet comprend des compléments de shell pour améliorer l'expérience de la ligne de commande de l'utilisateur.
Installez à la suite de l'une des méthodes ci-dessous.
À l'échelle du système
sudo cp comp/bash/chatgpt.sh /usr/share/bash-completion/completions/
Spécifique à l'utilisateur
mkdir -p ~/.local/share/bash-completion/completions/
cp comp/bash/chatgpt.sh ~/.local/share/bash-completion/completions/
Visitez le référentiel Bash-Completion.
Installer à l'emplacement du système
sudo cp comp/zsh/_chatgpt.sh /usr/share/zsh/site-functions/
Emplacement spécifique à l'utilisateur
Pour définir l'achèvement spécifique à l'utilisateur , assurez-vous de placer le script d'achèvement dans un répertoire dans le tableau $fpath .
L'utilisateur peut créer le répertoire ~/.zfunc/ , par exemple, et ajouter les lignes suivantes à elle ~/.zshrc :
[[ -d ~/.zfunc ]] && fpath=(~/.zfunc $fpath)
autoload -Uz compinit
compinit
Assurez-vous que compinit est exécuté après la définition $fpath !
Visitez le référentiel Zsh-Completion.
Les achèvements de bash et de Zsh doivent être actifs dans les nouvelles sessions de terminal. Sinon, assurez-vous que votre ~/.bashrc et ~/.zshrc vous procurent correctement les fichiers de complétion.
La fonctionnalité YouTube n'obtiendra que le titre de titres de vidéos YouTube et ses transcriptions (lorsqu'ils sont disponibles).
La fonction de prise en charge PDF extrait le texte PDF ( pas d'images ) et l'ajoute à la demande de l'utilisateur.
Exécutez les commandes de chat avec l'un ou l'autre opérateur ! ou / .
Modifiez les entrées d'histoire en direct avec la commande !hist , pour l'injection de contexte.
/ , ou // pour avoir la dernière modification de l'invite avant la nouvelle demande. Générer une image selon Invite:
chatgpt.sh -i "Dark tower in the middle of a field of red roses."
chatgpt.sh -i "512x512" "A tower."
Générer une variation d'image:
chatgpt.sh -i path/to/image.png
chatgpt.sh -i path/to/image.png path/to/mask.png "A pink flamingo."
Dans cet exemple, un masque est fabriqué à partir de la couleur blanche.
Ajout d'une batte dans le ciel nocturne.
Générez la transcription à partir de la parole de fichier audio. Une invite pour guider le style du modèle est facultative. L'invite doit correspondre au langage vocal:
chatgpt.sh -w path/to/audio.mp3
chatgpt.sh -w path/to/audio.mp3 "en" "This is a poem about X."
1. Générez la transcription à partir de l'enregistrement vocal, définissez les portugais comme langue pour transcrire:
chatgpt.sh -w pt
Cela fonctionne également pour transcrire une langue à une autre.
2. Transcrire toute entrée de discours de langue au japonais ( l'invite doit être dans la même langue que la langue audio d'entrée, de préférence):
chatgpt.sh -w ja "A job interview is currently being done."
3.1 Traduire l'entrée de la parole anglaise en japonais et générer une sortie de la parole à partir de la réponse texte.
chatgpt.sh -wz ja "Getting directions to famous places in the city."
3.2 Le faisant également à l'inverse, cela donne l'occasion de tourner (manuelle) des virages de deux locuteurs de langues différentes. Ci-dessous, un locuteur japonais peut traduire sa voix et générer de l'audio dans la langue cible.
chatgpt.sh -wz en "Providing directions to famous places in the city."
4. Traduire le discours de n'importe quelle langue en anglais:
chatgpt.sh -W [audio_file]
chatgpt.sh -W
Pour réessayer avec le dernier enregistrement de microphone enregistré dans le cache, définissez Audio_file comme last ou retry .
Remarque: Générez l'option de réglage à double terme de niveau phrasal option -ww ou option -WW . Pour les horodatages au niveau des mots , définissez l'option -www ou -WWW .
Assurez-vous que vous avez configuré et en cours d'exécution de Mudler.
Le serveur peut être exécuté en tant que conteneur Docker ou un binaire peut être téléchargé. Vérifiez les images de conteneurs Localai Tutorials et exécutez les modèles manuellement pour une idée de l'installation, téléchargez un modèle et configurez-le.
┌───────────────────────────────────────────────────┐
│ Fiber v2.50.0 │
│ http://127.0.0.1:8080 │
│ (bound on host 0.0.0.0 and port 8080) │
│ │
│ Handlers ............. 1 Processes ........... 1 │
│ Prefork ....... Disabled PID ..................1 │
└───────────────────────────────────────────────────┘
1. Téléchargez un binaire de localai pour votre système à partir du repo GitHub de Mudler.
2. Exécutez localai run --help pour vérifier les options de ligne Comamnd et les variables d'environnement.
3. Configurez $GALLERIES avant de démarrer le serveur:
export GALLERIES='[{"name":"localai", "url":"github:mudler/localai/gallery/index.yaml"}]' #defaults
export GALLERIES='[{"name":"model-gallery", "url":"github:go-skynet/model-gallery/index.yaml"}]'
export GALLERIES='[{"name":"huggingface", "url": "github:go-skynet/model-gallery/huggingface.yaml"}]'
4. Installez le modèle nommé phi-2-chat à partir d'un fichier yaml manuellement, pendant que le serveur est en cours d'exécution:
curl -L http://localhost:8080/models/apply -H "Content-Type: application/json" -d '{ "config_url": "https://raw.githubusercontent.com/mudler/LocalAI/master/embedded/models/phi-2-chat.yaml" }'
Enfin, lors de l'exécution chatgpt.sh , définissez le nom du modèle:
chatgpt.sh --localai -cc -m luna-ai-llama2
La définition de certaines séquences d'arrêt peut être nécessaire pour empêcher le modèle de générer du texte de texte:
chatgpt.sh --localai -cc -m luna-ai-llama2 -s'### User:' -s'### Response:'
Définissez éventuellement les séquences de redémarrage et de démarrage pour le point de terminaison des compléments de texte ( option -c ), tels que -s'n### User: ' -s'n### Response:' (Faire l'esprit définit correctement NewLines n et Whitespaces ).
Et c'est tout!
Les noms de modèle peuvent être imprimés avec chatgpt.sh -l . Un modèle peut être fourni comme argument, de sorte que seuls les détails du modèle sont affichés.
Remarque: la gestion du modèle (téléchargement et la configuration) doit suivre les directives et méthodes et méthodes de projets localai et olllama.
Pour la génération d'images, installez une diffusion stable à partir de l'URL github:go-skynet/model-gallery/stablediffusion.yaml , et pour la transcription de la parole, téléchargez Whisper à partir de l'URL github:go-skynet/model-gallery/whisper-base.yaml .
Si l'URL de base du fournisseur de services est différente des valeurs par défaut.
La variable d'environnement $OPENAI_BASE_URL est lue à Invocation.
export OPENAI_BASE_URL="http://127.0.0.1:8080/v1"
chatgpt.sh -c -m luna-ai-llama2
Pour le définir d'une manière plus permanente, modifiez le fichier de configuration du script .chatgpt.conf .
Utilisez VIM:
vim ~/.chatgpt.conf
Ou modifiez la configuration avec une option de ligne Comamnd.
chatgpt.sh -F
Et définir la variable suivante:
# ~/.chatgpt.conf
OPENAI_BASE_URL="http://127.0.0.1:8080/v1"
Visitez le référentiel Olllama et suivez les instructions pour installer, télécharger des modèles et configurer le serveur.
Après avoir fonctionné sur le serveur Ollama, définissez option -O ( --ollama ) et le nom du modèle dans chatgpt.sh :
chatgpt.sh -cc -O -m llama2
Si l'URL du serveur Ollama n'est pas le paramètre par défaut http://localhost:11434 , modifiez le fichier de configuration chatgpt.sh et définissez la variable suivante:
# ~/.chatgpt.conf
OLLAMA_BASE_URL="http://192.168.0.3:11434"
Obtenez une clé API gratuite pour que Google puisse utiliser des Gémeaux et des modèles de vision. Les utilisateurs ont une bande passante gratuite de 60 demandes par minute, et le script offre une implémentation de base de l'API.
Définissez la variable Enviroment $GOOGLE_API_KEY et exécutez le script avec option --google , tels que:
chatgpt.sh --google -cc -m gemini-pro-vision
OBS : Les modèles de vision Google Gemini ne sont pas activés pour le multitturne du côté API, nous le piratons donc.
Pour répertorier tous les modèles disponibles, exécutez chatgpt.sh --google -l .
Configurez un compte Mistral AI, déclarez la variable Enviroment $MISTRAL_API_KEY et exécutez le script avec option --mistral pour une intégration complète.
Connectez-vous à Groq. Créez une nouvelle clé API ou utilisez une variable environnementale pour définir la variable environnementale $GROQ_API_KEY . Exécutez le script avec option --groq .
Actuellement, les modèles LLAMMA3.1 sont disponibles à des vitesses d'éclairage!
Connectez-vous à antropique AI. Créez une nouvelle clé API ou utilisez une variable environnementale pour définir la variable environnementale $ANTHROPIC_API_KEY . Exécutez le script avec option --anthropic ou --ant .
Vérifiez les modèles Claude-3 ! Exécutez le script comme:
chatgpt.sh --anthropic -cc -m claude-3-5-sonnet-20240620
Le script fonctionne également sur les compléments de texte avec des modèles tels que claude-2.1 , bien que la documentation de l'API l'indique comme obsolète.
Essayer:
chatgpt.sh --ant -c -m claude-2.1
GitHub s'est associé à Azure pour utiliser son infrarté.
En tant qu'utilisateur GitHub, rejoignez la liste d'attente, puis générez un jeton personnel. Définissez la variable environnementale $GITHUB_TOKEN et exécutez le script avec option --github ou --git .
Consultez la liste des modèles en ligne ou répertoriez les modèles disponibles et leurs noms d'origine avec chatgpt.sh --github -l .
chatgpt.sh --github -cc -m Phi-3-small-8k-instruct
Voir aussi le catalogue GitHub Modèle - Page de démarrage.
Novita AI propose une gamme de modèles LLM à une valeur exceptionnelle, y compris le modèle LLAMA 3.3 hautement recommandé, qui offre le meilleur équilibre des prix et des performances!
Pour un modèle non censuré, considérez SAO10K / L3-70B-Eururyale-V2.1 (assistant créatif et jeu de rôle) ou cognitiveComputations / Dolphin-MIXTRAL-8X22B .
Créez une clé API conformément au guide de démarrage rapide et exportez votre clé comme $NOVITA_API_KEY vers votre environnement.
Ensuite, exécutez le script tel que chatgpt.sh --novita -cc .
Vérifiez la page Web de la liste des modèles et le prix de chaque modèle.
Pour répertorier tous les modèles disponibles, exécutez chatgpt.sh --novita -l . Définissez éventuellement un nom de modèle avec option -l pour vider les détails du modèle.
Certains modèles fonctionnent avec le point de terminaison /completions , tandis que d'autres fonctionnent avec le point de terminaison /chat/completions , de sorte que le script ne définit pas automatiquement le point de terminaison ! Vérifiez les détails du modèle et les pages Web pour comprendre leurs capacités, puis exécutez le script avec option -c ( Text E complétion ) ou options -cc ( CHAT EXCELIONS ).
En tant qu'exercice, au lieu de définir option --novita , définissez l'intégration Novita Ai à la place:
export OPENAI_API_KEY=novita-api-key
export OPENAI_BASE_URL="https://api.novita.ai/v3/openai"
chatgpt.sh -cc -m meta-llama/llama-3.1-405b-instruct
Nous sommes reconnaissants à Novita AI pour leur soutien et leur collaboration. Pour plus d'informations, visitez Novita AI.
Visitez Xai Grok pour générer une clé API (Environnement $XAI_API_KEY ).
Exécutez le script avec option --xai et également avec option -cc (Chat Completions.).
Certains modèles fonctionnent également avec les compléments de texte natifs. Pour cela, définissez option -c à la place.
Ce projet PKGBUILD est disponible dans le référentiel d'utilisateurs Arch Linux ( AUR ) pour installer le logiciel dans Arch Linux et les distros dérivés.
Pour installer le programme à partir de l'AUR, vous pouvez utiliser une aide AUR comme yay ou paru . Par exemple, avec yay :
yay -S chatgpt.sh
Installez les applications Termux et Termux:API de la boutique F-Droid .
Donnez toutes les autorisations à Termux:API dans les paramètres de votre application de téléphone.
Nous recommandons également d'installer sox , ffmpeg , pulseaudio , imagemagick et vim (ou nano ).
N'oubliez pas d'exécuter termux-setup-storage pour configurer l'accès au stockage du téléphone.
Dans Termux approprié, installez les packages termux-api et termux-tools ( pkg install termux-api termux-tools ).
Lors de l'enregistrement de l'audio (Whisper, option -w ), si pulseaudio est configuré correctement, le script utilise sox , ffmpeg ou d'autres logiciels compétents, sinon il est par défaut à termux-microphone-record
De même, lors de la lecture de l'audio (TTS, option -z ), selon la configuration pulseaudio utilisez sox , mpv ou la lecture de la lecture Terux ( play-audio est facultatif).
Pour définir le presse-papiers, il est requis termux-clipboard-set du package termux-api .
La marque dans l'entrée TTS peut un peu bégayer la génération de la parole du modèle. Si les modules python markdown et bs4 sont disponibles, l'entrée TTS sera convertie en texte brut. En tant que repli, pandoc est utilisé s'il est présent (mode de chat uniquement).
Sous Termux, assurez-vous que votre système soit mis à jour et installé avec des packages python , rust et rustc-dev pour construire tiktoken .
pkg update
pkg upgrade
pkg install python rust rustc-dev
pip install tiktoken
Afin de définir l'accès Termux à l'enregistrement du microphone et à la lecture de l'audio (avec sox et ffmpeg ), suivez les instructions ci-dessous.
A. Définir une seule fois pulseaudio , exécuter:
pulseaudio -k
pulseaudio -L "module-sles-source" -D
B. Pour définir une configuration permanente:
pulseaudio -k .load-module module-sles-source à l'un des fichiers : ~/.config/pulse/default.pa
/data/data/com.termux/files/usr/etc/pulse/default.pa
pulseaudio -D . C. Pour créer un nouvel utilisateur ~/.config/pulse/default.pa , vous pouvez commencer par le modèle suivant:
#!/usr/bin/pulseaudio -nF
.include /data/data/com.termux/files/usr/etc/pulse/default.pa
load-module module-sles-source
Pour accéder à vos fichiers Termux à l'aide du gestionnaire de fichiers d'Android, installez un gestionnaire de fichiers décent tel que FX File Explorer à partir d'un Play Store et configurez-le, ou exécutez la commande suivante dans votre terminal terminal Termux:
am start -a android.intent.action.VIEW -d "content://com.android.externalstorage.documents/root/primary"
Source: https://www.reddit.com/r/terux/comments/182g7np/where_do_i_find_my_things_that_i_downloaded/
Implémentez les belles fonctionnalités de OpenAI API version 1 .
Fournissez les défauts d'API les plus proches.
Laissez l'utilisateur personnaliser par défaut (en tant que devoirs).
Première de chatgpt.sh version 1.0 devrait se produire à l'époque où OpenAI lance sa prochaine mise à jour de version API majeure.
Joyeux 2024 Masse Grav!
OpenAI API Version 1 est au centre de la présente implémentation du projet. Toutes les caractéristiques de l'API ne seront pas couvertes.
Ce projet ne prend pas en charge "Fonction appelant" ou "sorties structurées".
Nous ne prendrons probablement pas en charge le chat "en temps réel" ou la modalité vidéo.
Bash Shell tronque l'entrée sur