Shell Wrapper para el chatgpt de OpenAi, Dall-e, Whisper y TTS. Cuenta con la integración de modelos Localai, Ollama, Gemini, Mistral, Groq y GitHub.
Finalizaciones de chat con transmisión por defecto.
¡El procesamiento de Markdown en la respuesta se activa automáticamente desde hace algún tiempo!
Representación de Markdown de la respuesta de chat ( opcional ).
En las terminaciones puras de texto, comience escribiendo algún texto que se complete, como noticias, historias o poemas.
Agregue la etiqueta de inserción [insert] donde se va a completar. ¡ code models Mistral funcionan bien con el modo Insertar / Fill-in-the-Middel (FIM)! Si no se proporciona un sufijo, funciona como completaciones de texto sin formato.
options -cczw )BashcURL y JQPaquetes requeridos para características específicas.
Base64 - punto final de imagen, modelos multimodalesPython - Módulos Tiktoken, Markdown, BS4ImageMagick / fbida - ediciones y variaciones de imágenesSoX / Arecord / FFmpeg - Entrada de registro (Whisper)mpv / SoX / Vlc / FFplay / afplay - Play TTS Salidaxdg-open / open / xsel / xclip / pbcopy - Abrir imágenes, establecer portapapelesW3M / Lynx / ELinks / Links - Texto de la URL de volcadobat / Pygmentize / Glow / mdcat / mdless - Soporte de Markdowntermux-api / termux-tools / play-audio -Sistema Termuxpoppler / gs / abiword / ebook-convert / LibreOffice - Volcado PDF o DOC como textodialog / kdialog / zenity / osascript / termux-dialog - seleccionador de archivos A. Descargue el script chatgpt.sh independiente y haga que se ejecute:
wget https://gitlab.com/fenixdragao/shellchatgpt/-/raw/main/chatgpt.sh
chmod +x ./chatgpt.sh
B. o clonar este repositorio:
git clone https://gitlab.com/fenixdragao/shellchatgpt.git
C. Opcionalmente, descargue y configure el archivo de configuración ~/.chatgpt.conf :
#save configuration template:
chatgpt.sh -FF >> ~/.chatgpt.conf
#edit:
chatgpt.sh -F
# Or
vim ~/.chatgpt.conf
Con options -cc , algunas propiedades se configuran automáticamente para crear un bot de chat. Inicie una nueva sesión en modo de chat y establezca una temperatura diferente ( modelos GPT-3.5 y GPT-4+ ):
chatgpt.sh -cc -t0.7
Cambie la longitud de respuesta máxima a tokens 4K:
chatgpt.sh -cc -4000
chatgpt.sh -cc -M 4000
O cambiar una capacidad de token modelo a 200k tokens:
chatgpt.sh -cc -4000-200000
chatgpt.sh -cc -M 4000-200000
Crear marv, el bot sarcástico :
chatgpt.sh -512 -cc --frequency-penalty=0.7 --temp=0.8 --top_p=0.4 --restart-seq='nYou: ' --start-seq='nMarv:' --stop='You:' --stop='Marv:' -S'Marv is a factual chatbot that reluctantly answers questions with sarcastic responses.'
Cargue el archivo de instrucciones de Unix ("Unix.pr") para una nueva sesión. Las sintaxis de la línea de comando a continuación son todos alias:
chatgpt.sh -cc .unix
chatgpt.sh -cc.unix
chatgpt.sh -cc -.unix
chatgpt.sh -cc -S .unix
Para calmar solo el archivo de historial de que se registrará la sesión, establezca el primer argumento posicional en la línea de comando con el operador del reenvío de Slash " / " y el nombre del archivo del historial (predeterminado en el comando /session ).
chatgpt.sh -cc /test
chatgpt.sh -cc /stest
chatgpt.sh -cc "/session test"
Hay un atajo para cargar una sesión anterior desde el archivo de historial actual. Esto abre una interfaz interativa básica.
chatgpt.sh -cc .
Técnicamente, esto copia una sesión antigua desde el archivo de historial de destino hasta la cola, para que podamos reanudar la sesión.
Para cargar una sesión anterior desde un archivo de historial que es diferente de los valores predeterminados, hay algunas opciones.
Para GREP para sesiones con un Regex, es más fácil ingresar al modo de chat y luego escribir el comando de chat /grep [regex] .
Para cambiar solo a un nombre de archivo de historial definido, ejecute el comando !session [name] .
Imprima la última sesión, opcionalmente establece el nombre del historial:
chatgpt.sh -P
chatgpt.sh -P /test
Para enviar una image / url a los modelos de visión, inicie el script y luego establezca la imagen con el comando de chat !img con uno o más filepaths / urls.
chatgpt.sh -cc -m gpt-4-vision-preview '!img path/to/image.jpg'
Alternativamente, establezca las rutas / URL de la imagen al final de la solicitud:
chatgpt.sh -cc -m gpt-4-vision-preview
[...]
Q: In this first user prompt, what can you see? https://i.imgur.com/wpXKyRo.jpeg
Consejo: ¡ Ejecute el comando de chat !info para verificar la configuración del modelo!
Debug: Establezca option -V para ver el cuerpo de solicitud JSON sin procesar.
Para hacer una quiebra fácil, el usuario puede agregar un filepático o URL al final del aviso. Luego se lee el archivo y el contenido de texto se adjunta a la solicitud del usuario. Esta es una característica de texto básica que funciona con cualquier modelo.
chatgpt.sh -cc
[...]
Q: What is this page: https://example.com
Q: Help me study this paper. ~/Downloads/Prigogine Perspective on Nature.pdf
En el segundo ejemplo anterior, el PDF se verá como texto (modo interactivo).
Para el soporte de volcado de texto PDF, se requiere poppler/abiword . Para los archivos DOC y ODT , se requiere LibreOffice . Consulte la sección de paquetes opcionales.
También tenga en cuenta que las rutas de archivo que contienen espacios blancos deben estar enviados a BlackSlash , o el FilePath debe estar precedido por una tubería | personaje.
My text prompt. | path/to the file.jpg
¡Se pueden agregar múltiples imágenes y archivos de audio en el mensaje de esta manera!
El comando /pick abre un selector de archivos (generalmente un administrador de archivos de línea de comandos). La ruta del archivo seleccionado se agregará a la solicitud actual en modo de edición.
Los comandos /pick y /sh se pueden ejecutar cuando se escriben al final del indicador actual, como [PROMPT] /sh , que abre una nueva instancia de shell para ejecutar comandos de manera interactiva. La salida de estos comandos se adjunta a la solicitud actual.
Cuando se ejecuta el comando /pick al final de la solicitud, la ruta del archivo seleccionada se adjunta en su lugar.
Las rutas de archivos que contienen espacios blancos necesitan backsasth-scaping en algunas funciones.
Finalización del chat con discurso dentro y fuera (Whisper Plus TTS):
chatgpt.sh -ccwz
Chatear en portugués con susurros y establecer Onyx como la voz de TTS:
chatgpt.sh -ccwz -- pt -- onyx
El modo de chat proporciona una experiencia de conversación, lo que solicita al usuario que confirme cada paso.
Para una ejecución más automatizada, option -v y -vv para experiencia manos libres ( chat en vivo con detección de silencio), como:
chatgpt.sh -cc -w -z -v
chatgpt.sh -cc -w -z -vv
Los modelos de audio, como gpt-4o-audio , tratan directamente con entrada y salida de audio, reduciendo así la latencia en un giro de conversación.
Para activar la función de grabación de micrófono del script, establecer option -w .
De lo contrario, el modelo de audio acepta cualquier archivo de audio compatible (como MP3 , WAV y OPUS ). Estos archivos se pueden agregar para cargarse al final de la solicitud del usuario o agregar con el comando de chat /audio path/to/file.mp3 .
De manera similar, como se describió anteriormente, para activar el modo de salida de audio de un modelo de audio, ¡configure option -z para asegurarse de habilitar la función de síntesis de voz!
chatgpt.sh -cc -w -z -vv -m "gpt-4o-audio-preview"
Tenga en cuenta que esto no implementa los modelos en tiempo real .
Cuando las terminaciones de texto están configuradas para chatear con option -c , algunas propiedades se configuran automáticamente para instruir al bot.
chatgpt.sh -c "Hello there! What is your name?"
Este es el punto final de finalización de texto puro. Por lo general, se usa para completar el texto de entrada, como para completar parte de un ensayo.
Para completar el texto del indicador de entrada de la línea de comando, establezca option -d o establece un nombre del modelo de finalización de texto.
chatgpt.sh -128 -m gpt-3.5-turbo-instruct "Hello there! Your name is"
chatgpt.sh -128 -d "The journalist loo"
Los ejemplos anteriores también establecen un valor de respuesta máximo a 128 tokens.
Ingrese el modo interactivo de giro único:
chatgpt.sh -d
Nota: Para el modo múltiple con soporte del historial, establezca option -dd .
Es posible que se necesite un mensaje de instrucción sólido para que el modelo de idioma haga lo que se requiere.
Establezca un mensaje de instrucción para obtener mejores resultados:
chatgpt.sh -d -S 'The following is a newspaper article.' "It all starts when FBI agents arrived at the governor house and"
chatgpt.sh -d -S'You are an AI assistant.' "The list below contain the 10 biggest cities in the w"
Establecer option -q (o -qq para multiturn) para habilitar el modo de inserción y agregar la cadena [insert] donde el modelo debe insertar texto:
chatgpt.sh -q 'It was raining when [insert] tomorrow.'
Nota: ¡ Este ejemplo funciona sin un mensaje de instrucción ! Un mensaje de instrucción en este modo puede interferir con las terminaciones de inserción.
Nota: El modo de inserción funciona con instruct models modelos.
Mistral AI tiene un buen punto final FIM (relleno-en el medio) que funciona con modelos code y es realmente bueno.
Para habilitar la representación de Markdown de las respuestas, establezca option --markdown , o ejecutar /md en modo de chat. Para representar la última respuesta en Markdown una vez, ejecute //md .
La opción Markdown usa bat , ya que tiene un almacenamiento en búfer de línea de forma predeterminada, sin embargo, otro software es compatible. Establezca como --markdown=glow o /md mdless en el modo de chat.
Escriba cualquiera de los siguientes software Markdown como argumento a la opción: bat , pygmentize , glow , mdcat o mdless .
A menos que se establezca la option -c o -cc , no se dan instrucciones al modelo de idioma. En el modo de chat, si no se establece instrucción, se proporciona una instrucción mínima y se establecen algunas opciones, como aumentar la temperatura y la penalización de presencia, para no lobotomizar el bot.
La ingeniería rápida es un arte en sí mismo. Estudie cuidadosamente cómo elaborar las mejores indicaciones para aprovechar al máximo los modelos de texto, código y finalización de chat.
La dirección y las capacidades del modelo requieren una ingeniería rápida para saber que debe responder las preguntas.
Establezca un indicador de instrucciones de un solo disparo con option -S :
chatgpt.sh -cc -S 'You are a PhD psycologist student.'
chatgpt.sh -ccS'You are a professional software programmer.'
Para crear o cargar un archivo de plantilla de inmediato, establezca el primer argumento posicional como .prompt_name o ,prompt_name . En el segundo caso, cargue el indicador y un solo disparo editarlo.
chatgpt.sh -cc .psycologist
chatgpt.sh -cc ,software_programmer
Alternativamente, establezca option -S con el operador y el nombre del indicador como argumento:
chatgpt.sh -cc -S .psycologist
chatgpt.sh -cc -S,software_programmer
Esto cargará el mensaje personalizado o lo creará si aún no existe. En el segundo ejemplo, la edición de un solo disparo estará disponible después de cargar el indicador de indicadores_programmer .
¡Tenga en cuenta y asegúrese de hacer una copia de seguridad de sus importantes indicaciones personalizadas! Están ubicados en " ~/.cache/chatgptsh/ " con la extensión " .pr ".
Establezca un aviso de Awesome-ChatGPT-ProMPts o Awesome-ChatGPT-ProMPts-ZH, (use con modelos Davinci y GPT-3.5+):
chatgpt.sh -cc -S /linux_terminal
chatgpt.sh -cc -S /Relationship_Coach
chatgpt.sh -cc -S '%担任雅思写作考官'
Este proyecto incluye completaciones de shell para mejorar la experiencia de la línea de comandos del usuario.
Instale siguiendo uno de los métodos a continuación.
Del sistema
sudo cp comp/bash/chatgpt.sh /usr/share/bash-completion/completions/
Específico
mkdir -p ~/.local/share/bash-completion/completions/
cp comp/bash/chatgpt.sh ~/.local/share/bash-completion/completions/
Visite el repositorio de combustión de bash.
Instalar en la ubicación del sistema
sudo cp comp/zsh/_chatgpt.sh /usr/share/zsh/site-functions/
Ubicación específica del usuario
Para establecer la finalización específica del usuario , asegúrese de colocar el script de finalización en un directorio en la matriz $fpath .
El usuario puede crear el directorio ~/.zfunc/ , por ejemplo, y agregar las siguientes líneas a ella ~/.zshrc :
[[ -d ~/.zfunc ]] && fpath=(~/.zfunc $fpath)
autoload -Uz compinit
compinit
¡Asegúrese de que compinit se ejecute después de configurar $fpath !
Visite el repositorio de Completion ZSH.
Las finalizaciones BASH y ZSH deben estar activas en nuevas sesiones terminales. Si no, asegúrese de su fuente ~/.bashrc y ~/.zshrc los archivos de finalización correctamente.
La función de YouTube solo obtendrá el título de encabezado de los videos de YouTube y sus transcripciones (cuando estén disponibles).
La función de soporte PDF extrae el texto PDF ( sin imágenes ) y lo agrega a la solicitud del usuario.
¡Ejecute comandos de chat con cualquiera de los operadores ! o / .
Edite entradas de historial en vivo con comando !hist , para la inyección de contexto.
/ , o // para tener el último aviso editado antes de la nueva solicitud. Genere la imagen de acuerdo con el aviso:
chatgpt.sh -i "Dark tower in the middle of a field of red roses."
chatgpt.sh -i "512x512" "A tower."
Generar la variación de la imagen:
chatgpt.sh -i path/to/image.png
chatgpt.sh -i path/to/image.png path/to/mask.png "A pink flamingo."
En este ejemplo, una máscara está hecha del color blanco.
Agregar un bate en el cielo nocturno.
Genere la transcripción del discurso del archivo de audio. Un mensaje para guiar el estilo del modelo es opcional. El aviso debe coincidir con el lenguaje del habla:
chatgpt.sh -w path/to/audio.mp3
chatgpt.sh -w path/to/audio.mp3 "en" "This is a poem about X."
1. Genere la transcripción a partir de la grabación de voz, configure el portugués como el lenguaje para transcribir a:
chatgpt.sh -w pt
Esto también funciona para transcribir de un idioma a otro.
2. Transcribir cualquier lenguaje de información sobre el habla al japonés ( el aviso debe estar en el mismo idioma que el lenguaje de audio de entrada, preferiblemente):
chatgpt.sh -w ja "A job interview is currently being done."
3.1 Traducir la información del habla en inglés al japonés y generar la salida del habla a partir de la respuesta del texto.
chatgpt.sh -wz ja "Getting directions to famous places in the city."
3.2 También por el contrario, esto da la oportunidad de conversar (manuales) giros de dos hablantes de diferentes idiomas. A continuación, un altavoz japonés puede traducir su voz y generar audio en el idioma de destino.
chatgpt.sh -wz en "Providing directions to famous places in the city."
4. Traducir el discurso de cualquier idioma al inglés:
chatgpt.sh -W [audio_file]
chatgpt.sh -W
Para volver a intentar con la última grabación de micrófono guardada en el caché, configure Audio_File como last o retry .
NOTA: Genere la opción de doble configuración a nivel de frasal option -ww u option -WW . Para las marcas de tiempo a nivel de palabra , establezca la opción -www o -WWW .
Asegúrese de tener el servidor Localai de Mudler configurado y ejecutado.
El servidor se puede ejecutar como un contenedor Docker o se puede descargar un binario. Verifique las imágenes de contenedores de los tutoriales localesi y ejecute modelos manualmente para obtener una idea sobre cómo instalar, descargar un modelo y configurarlo.
┌───────────────────────────────────────────────────┐
│ Fiber v2.50.0 │
│ http://127.0.0.1:8080 │
│ (bound on host 0.0.0.0 and port 8080) │
│ │
│ Handlers ............. 1 Processes ........... 1 │
│ Prefork ....... Disabled PID ..................1 │
└───────────────────────────────────────────────────┘
1. Descargue un binario de localai para su sistema de Mudler's Release GitHub Repo.
2. Ejecute localai run --help para verificar las opciones de línea Comamnd y las variables de entorno.
3. Configure $GALLERIES antes de iniciar el servidor:
export GALLERIES='[{"name":"localai", "url":"github:mudler/localai/gallery/index.yaml"}]' #defaults
export GALLERIES='[{"name":"model-gallery", "url":"github:go-skynet/model-gallery/index.yaml"}]'
export GALLERIES='[{"name":"huggingface", "url": "github:go-skynet/model-gallery/huggingface.yaml"}]'
4. Instale el modelo llamado phi-2-chat desde un archivo yaml manualmente, mientras el servidor se está ejecutando:
curl -L http://localhost:8080/models/apply -H "Content-Type: application/json" -d '{ "config_url": "https://raw.githubusercontent.com/mudler/LocalAI/master/embedded/models/phi-2-chat.yaml" }'
Finalmente, al ejecutar chatgpt.sh , configure el nombre del modelo:
chatgpt.sh --localai -cc -m luna-ai-llama2
Establecer algunas secuencias de parada puede ser necesaria para evitar que el modelo genere un contexto pasado de texto:
chatgpt.sh --localai -cc -m luna-ai-llama2 -s'### User:' -s'### Response:'
Opcionalmente, configure las secuencias de reinicio e inicie para el punto final de finalización de texto ( option -c ), como -s'n### User: ' -s'n### Response:' (HAGA MENTE configurando las líneas nuevas n y los blancos correctamente).
¡Y eso es todo!
Los nombres de los modelos se pueden imprimir con chatgpt.sh -l . Se puede suministrar un modelo como argumento, de modo que solo se muestran los detalles del modelo.
Nota: La gestión del modelo (descarga y configuración) debe seguir las pautas y métodos de proyectos de LocalAi y Ollama.
Para la generación de imágenes, instale la difusión estable de la URL github:go-skynet/model-gallery/stablediffusion.yaml , y para la transcripción del habla, descargue Whisper del URL github:go-skynet/model-gallery/whisper-base.yaml .
Si la URL base del proveedor de servicios es diferente de los valores predeterminados.
El entorno Varible $OPENAI_BASE_URL se lee en la invocación.
export OPENAI_BASE_URL="http://127.0.0.1:8080/v1"
chatgpt.sh -c -m luna-ai-llama2
Para configurarlo de una manera más permanente, edite el archivo de configuración de script .chatgpt.conf .
Usa vim:
vim ~/.chatgpt.conf
O edite la configuración con una opción de línea Comamnd.
chatgpt.sh -F
Y establezca la siguiente variable:
# ~/.chatgpt.conf
OPENAI_BASE_URL="http://127.0.0.1:8080/v1"
Visite el repositorio de Ollama y siga las instrucciones para instalar, descargar modelos y configurar el servidor.
Después de que el servidor Ollama se ejecute, establezca option -O ( --ollama ), y el nombre del modelo en chatgpt.sh :
chatgpt.sh -cc -O -m llama2
Si la URL del servidor Ollama no es el valor predeterminado http://localhost:11434 , edite el archivo de configuración chatgpt.sh y establece la siguiente variable:
# ~/.chatgpt.conf
OLLAMA_BASE_URL="http://192.168.0.3:11434"
Obtenga una clave API gratuita para Google para poder usar modelos Gemini y Vision. Los usuarios tienen un ancho de banda gratuito de 60 solicitudes por minuto, y el script ofrece una implementación básica de la API.
Establezca la variable Enviroment $GOOGLE_API_KEY y ejecute el script con option --google , como:
chatgpt.sh --google -cc -m gemini-pro-vision
Obs : Google Gemini Vision Los modelos no están habilitados para MultiTurn en el lado de la API, por lo que lo hackamos.
Para enumerar todos los modelos disponibles, ejecute chatgpt.sh --google -l .
Configure una cuenta de AI Mistral, declare la variable de entorno $MISTRAL_API_KEY y ejecute el script con option --mistral para integración completa.
Iniciar sesión en Groq. Cree una nueva clave API o use una existente para establecer la variable ambiental $GROQ_API_KEY . Ejecute el script con option --groq .
¡Actualmente, los modelos LLAMMA3.1 están disponibles a velocidades de iluminación!
Inicie sesión en AI antropicial. Cree una nueva clave API o use una existente para establecer la variable ambiental $ANTHROPIC_API_KEY . Ejecute el script con option --anthropic o --ant .
¡Revise los modelos Claude-3 ! Ejecute el script como:
chatgpt.sh --anthropic -cc -m claude-3-5-sonnet-20240620
El script también funciona en completaciones de texto con modelos como claude-2.1 , aunque la documentación de la API lo marca como desaprobado.
Intentar:
chatgpt.sh --ant -c -m claude-2.1
Github se ha asociado con Azure para usar su infratructura.
Como usuario de GitHub, únase a la lista de espera y luego genere una ficha personal. Establezca la variable ambiental $GITHUB_TOKEN y ejecute el script con option --github o --git .
Consulte la lista de modelos en línea o enumere los modelos disponibles y sus nombres originales con chatgpt.sh --github -l .
chatgpt.sh --github -cc -m Phi-3-small-8k-instruct
Consulte también el Catálogo de Modelos GitHub - Página de inicio.
Novita AI ofrece una gama de modelos LLM a un valor excepcional, incluido el modelo LLAMA 3.3 altamente recomendado, que proporciona el mejor equilibrio de precio y rendimiento.
Para un modelo sin censura, considere SAO10K/L3-70B-EURYALE-V2.1 (Asistente Creativo y juego de roles) o Cognitivecomputations/Dolphin-Mixtral-8x22b .
Cree una clave API según la Guía de inicio rápido y exporte su clave como $NOVITA_API_KEY a su entorno.
A continuación, ejecute el script como chatgpt.sh --novita -cc .
Consulte la página web de la lista de modelos y el precio de cada modelo.
Para enumerar todos los modelos disponibles, ejecute chatgpt.sh --novita -l . Opcionalmente, configure un nombre de modelo con option -l para volcar los detalles del modelo.
Algunos modelos funcionan con el punto final /completions , mientras que otros trabajan con el punto final /chat/completions , por lo que el script no establece el punto final automáticamente . Verifique los detalles del modelo y las páginas web para comprender sus capacidades, y luego ejecute el script con option -c ( finalización de texto ) o options -cc ( finalizaciones de chat ).
Como ejercicio, en lugar de establecer option --novita , establezca la integración de Novita AI manualmente:
export OPENAI_API_KEY=novita-api-key
export OPENAI_BASE_URL="https://api.novita.ai/v3/openai"
chatgpt.sh -cc -m meta-llama/llama-3.1-405b-instruct
Agradecemos a Novita AI por su apoyo y colaboración. Para obtener más información, visite Novita AI.
Visite Xai Grok para generar una clave API (entorno $XAI_API_KEY ).
Ejecute el script con option --xai y también con option -cc (finalizaciones de chat).
Algunos modelos también funcionan con completaciones de texto nativas. Para eso, establezca option -c en su lugar.
Este proyecto PKGBuild está disponible en el Repositorio de usuarios de Arch Linux ( AUR ) para instalar el software en Arch Linux y Derivatation Discoss.
Para instalar el programa desde el AUR, puede usar un ayudante AUR como yay o paru . Por ejemplo, con yay :
yay -S chatgpt.sh
Instale las aplicaciones Termux y Termux:API en la tienda F-Droid .
Dé todos los permisos a Termux:API en la configuración de la aplicación de su teléfono.
Recomendamos también instalar sox , ffmpeg , pulseaudio , imagemagick y vim (o nano ).
Recuerde ejecutar termux-setup-storage para configurar el acceso al almacenamiento del teléfono.
En Termux apropiado, instale los paquetes de termux-api y termux-tools ( pkg install termux-api termux-tools ).
Al grabar audio (whisper, option -w ), si pulseaudio está configurado correctamente, el script usa sox , ffmpeg u otro software competente, de lo contrario, por defecto en termux-microphone-record
Del mismo modo, al reproducir audio (TTS, option -z ), dependiendo de la configuración pulseaudio , use sox , mpv o reproducción de retroceso a termute ( play-audio es opcional).
Para configurar el portapapeles, se requiere termux-clipboard-set desde el paquete termux-api .
La reducción en la entrada TTS puede tartamudear un poco la generación del habla modelo. Si están disponibles bs4 módulos python y markdown , la entrada TTS se convertirá en texto plano. Como Fallback, pandoc se usa si está presente (solo modo de chat).
En Termux, asegúrese de actualizar e instalar su sistema con paquetes python , rust y rustc-dev para construir tiktoken .
pkg update
pkg upgrade
pkg install python rust rustc-dev
pip install tiktoken
Para establecer el acceso de Termux para grabar el micrófono y reproducir audio (con sox y ffmpeg ), siga las instrucciones a continuación.
A. Establezca pulseaudio solo una vez, ejecute:
pulseaudio -k
pulseaudio -L "module-sles-source" -D
B. para establecer una configuración permanente:
pulseaudio -k .load-module module-sles-source a uno de los archivos : ~/.config/pulse/default.pa
/data/data/com.termux/files/usr/etc/pulse/default.pa
pulseaudio -D . C. Para crear un nuevo usuario ~/.config/pulse/default.pa , puede comenzar con la siguiente plantilla:
#!/usr/bin/pulseaudio -nF
.include /data/data/com.termux/files/usr/etc/pulse/default.pa
load-module module-sles-source
Para acceder a sus archivos Termux utilizando el Administrador de archivos de Android, instale un Administrador de archivos decente como FX File Explorer desde una tienda Play y configure, o ejecute el siguiente comando en su terminal Termux:
am start -a android.intent.action.VIEW -d "content://com.android.externalstorage.documents/root/primary"
Fuente: https://www.reddit.com/r/termux/comments/182g7np/where_do_i_find_my_things_that_i_downloaded/
Implemente características agradables de OpenAI API version 1 .
Proporcione los valores predeterminados de API más cercanos.
Deje que el usuario personalice los valores predeterminados (como tarea).
Première de chatgpt.sh version 1.0 debería ocurrir en el momento en que Operai lanza su próxima actualización de la versión de API principal.
¡Feliz 2024 Grav Mass!
Operai API versión 1 es el foco de la implementación del proyecto actual. No se cubrirán todas las características de la API.
Este proyecto no admite "llamadas de función" o "salidas estructuradas".
Probablemente, no admitiremos la chat de "tiempo real" o la modalidad de video.
Bash Shell trunca la entrada en