Оболочка для Openai's Chatgpt, Dall-E, Whisper и TTS. Интеграция моделей Localai, Ollama, Gemini, Mistral, Groq и GitHub.
Завершение чата с потоковой передачей по умолчанию.
Обработка разметки на ответе запускается автоматически уже некоторое время!
Рендеринг Markdown ответа чата ( необязательно ).
В чистое завершение текста начните с набора текста, который будет завершен, например, новости, истории или стихи.
Добавьте метку вставки [insert] , где он будет завершен. code models Mistral хорошо работают с режимом вставки / заполнения среднего (FIM)! Если суффикс не предоставлен, он работает как простые текстовые завершения.
options -cczw )BashcURL и JQПакеты, необходимые для конкретных функций.
Base64 - конечная точка изображения, мультимодальные моделиPython - Модули Tiktoken, Markdown, BS4ImageMagick / fbida - Редакты и вариации изображенияSoX / Arecord / FFmpeg - запись записи (Whisper)mpv / SoX / Vlc / FFplay / afplay - воспроизводить вывод TTSxdg-open / open / xsel / xclip / pbcopy - открыть изображения, установить буфер обменаW3M / Lynx / ELinks / Links - Текст URL -дампbat / Pygmentize / Glow / mdcat / mdless - поддержка Marckdowntermux-api / termux-tools / play-audio system termuxpoppler / gs / abiword / ebook-convert / LibreOffice - Dilm PDF или DOC в качестве текстаdialog / kdialog / zenity / osascript / termux-dialog - File Picker A. Загрузите автономный сценарий chatgpt.sh и сделайте его исполняемым файлом:
wget https://gitlab.com/fenixdragao/shellchatgpt/-/raw/main/chatgpt.sh
chmod +x ./chatgpt.sh
Б. или клонировать это репо:
git clone https://gitlab.com/fenixdragao/shellchatgpt.git
C. Необязательно, загрузите и установите файл конфигурации ~/.chatgpt.conf :
#save configuration template:
chatgpt.sh -FF >> ~/.chatgpt.conf
#edit:
chatgpt.sh -F
# Or
vim ~/.chatgpt.conf
С помощью options -cc некоторые свойства устанавливаются автоматически для создания бота в чате. Запустите новый сеанс в режиме чата и установите другую температуру ( модели GPT-3.5 и GPT-4+ ):
chatgpt.sh -cc -t0.7
Измените максимальную длину отклика на токены 4K:
chatgpt.sh -cc -4000
chatgpt.sh -cc -M 4000
Или изменить модель токена на токены 200 тысяч:
chatgpt.sh -cc -4000-200000
chatgpt.sh -cc -M 4000-200000
Создайте Marv, саркастический бот :
chatgpt.sh -512 -cc --frequency-penalty=0.7 --temp=0.8 --top_p=0.4 --restart-seq='nYou: ' --start-seq='nMarv:' --stop='You:' --stop='Marv:' -S'Marv is a factual chatbot that reluctantly answers questions with sarcastic responses.'
Загрузите файл инструкции Unix ("Unix.pr") для нового сеанса. Ниже приведены синтаксисы командной строки: все псевдонимы:
chatgpt.sh -cc .unix
chatgpt.sh -cc.unix
chatgpt.sh -cc -.unix
chatgpt.sh -cc -S .unix
Чтобы только подчеть файл истории, который будет записан сеанс, установите первый позиционный аргумент в командной строке с помощью оператора Worth Slash " / " и имени файла истории (по умолчанию команды /session ).
chatgpt.sh -cc /test
chatgpt.sh -cc /stest
chatgpt.sh -cc "/session test"
Существует ярлык для загрузки более старого сеанса из текущего файла истории. Это открывает базовый интерфейс.
chatgpt.sh -cc .
Технически это копирует старый сеанс из целевого файла истории в хвост, чтобы мы могли возобновить сеанс.
Чтобы загрузить более старый сеанс из файла истории, который отличается от дефолтов, есть некоторые варианты.
Чтобы Grep для сеансов с помощью корпорации, легче ввести режим чата, а затем введите команду чата /grep [regex] .
Чтобы перейти только на определенное имя файла истории, запустите команду !session [name] .
Распечатайте последний сеанс, при желании установите имя истории:
chatgpt.sh -P
chatgpt.sh -P /test
Чтобы отправить image / url в модели зрения, запустите скрипт, а затем либо установите изображение с командой чата !img с одним или несколькими FilePaths / URL.
chatgpt.sh -cc -m gpt-4-vision-preview '!img path/to/image.jpg'
В качестве альтернативы установите пути / URL -адреса изображения в конце подсказки:
chatgpt.sh -cc -m gpt-4-vision-preview
[...]
Q: In this first user prompt, what can you see? https://i.imgur.com/wpXKyRo.jpeg
Совет: Запустите команду чата !info , чтобы проверить конфигурацию модели!
DEBUG: SET option -V , чтобы увидеть тело запроса RAW JSON.
Чтобы сделать простые рабочие места, пользователь может добавить FilePath или URL в конце подсказки. Файл затем читается, а текстовый контент добавляется к пользовательской подсказке. Это базовая текстовая функция, которая работает с любой моделью.
chatgpt.sh -cc
[...]
Q: What is this page: https://example.com
Q: Help me study this paper. ~/Downloads/Prigogine Perspective on Nature.pdf
Во втором примере выше, PDF будет сброшен как текст (интерактивный режим).
Для поддержки дампа в формате PDF требуется poppler/abiword . Для файлов DOC и ODT требуется LibreOffice . См. Раздел «Дополнительные пакеты».
Также обратите внимание, что пути файлов, содержащих белые пространства, должны быть сняты с черной хлезом , или FilePath должна предшествовать труба | характер.
My text prompt. | path/to the file.jpg
Несколько изображений и аудиофайлов могут быть добавлены в подсказку таким образом!
Команда /pick открывает сборщик файлов (обычно файловый диспетчер командной строки). Выбранный путь файла будет добавлен к текущей подсказке в режиме редактирования.
Команды /pick и /sh могут выполняться при наборах в конце текущей подсказки, например [PROMPT] /sh , который открывает новый экземпляр оболочки для интерактивного выполнения команд. Вывод этих команд добавляется к текущей подсказке.
Когда команда /pick запускается в конце подсказки, вместо этого добавляется выбранный путь файла.
Пути к файлам , которые содержат белые пространства, нуждаются в обратном сборе в некоторых функциях.
Завершение чата с речью и выходом (Whisper Plus TTS):
chatgpt.sh -ccwz
Потекайте по -португальски с шепотом и установите Onyx в качестве голоса TTS:
chatgpt.sh -ccwz -- pt -- onyx
Режим чата обеспечивает разговорную работу, побуждая пользователя подтвердить каждый шаг.
Для более автоматизированного выполнения, SET option -v и -vv для опыта без помощи ( живой чат с обнаружением тишины), например:
chatgpt.sh -cc -w -z -v
chatgpt.sh -cc -w -z -vv
Аудио-модели, такие как gpt-4o-audio , имеют непосредственно аудио ввод и вывод, что снижает задержку в повороте разговора.
Чтобы активировать функцию записи микрофона сценария, установите option -w .
В противном случае аудио модель принимает любой совместимый аудиофайл (например, MP3 , WAV и Opus ). Эти файлы могут быть добавлены для загрузки в самом конце подсказки пользователя или добавлены с помощью команды чата /audio path/to/file.mp3 .
Точно так же, как описано выше, чтобы активировать режим вывода аудио аудио модели, установите option -z чтобы убедиться, что включить функцию синтеза речи!
chatgpt.sh -cc -w -z -vv -m "gpt-4o-audio-preview"
Имейте в виду, что это не реализует модели в реальном времени .
Когда завершение текста установлено для чата с option -c , некоторые свойства автоматически настроены для обучения бота.
chatgpt.sh -c "Hello there! What is your name?"
Это конечная точка завершения чистого текста. Обычно он используется для завершения входного текста, например, для завершения части эссе.
Чтобы заполнить текст из подсказки ввода командной строки, либо установлена option -d или установите имя модели завершения текста.
chatgpt.sh -128 -m gpt-3.5-turbo-instruct "Hello there! Your name is"
chatgpt.sh -128 -d "The journalist loo"
Приведенные выше примеры также устанавливают максимальное значение ответа на 128 токенов.
Введите интерактивный режим с одним поворотом:
chatgpt.sh -d
ПРИМЕЧАНИЕ. Для режима многообразования с поддержкой истории, установка option -dd .
Для получения языковой модели может потребоваться сильная подсказка для обучения, чтобы сделать то, что требуется.
Установите инструкции для лучших результатов:
chatgpt.sh -d -S 'The following is a newspaper article.' "It all starts when FBI agents arrived at the governor house and"
chatgpt.sh -d -S'You are an AI assistant.' "The list below contain the 10 biggest cities in the w"
Установите option -q (или -qq для множества), чтобы включить режим вставки и добавить строку [insert] , где модель должна вставить текст:
chatgpt.sh -q 'It was raining when [insert] tomorrow.'
Примечание: этот пример работает без инструкции ! Подсказка инструкции в этом режиме может мешать завершению вставки.
ПРИМЕЧАНИЕ. Вставка режима работает с модельными instruct models .
У Mistral AI есть хорошая конечная точка FIM (заполнение средней), которая работает с code моделями и действительно хороша!
Чтобы включить рендеринг Markdown ответов, установить option --markdown или запустить /md в режиме чата. Чтобы сделать последний ответ в Markdown один раз, запустить //md .
В опции Marckdown используется bat , так как она имеет линейную буферизацию по дефолте, однако поддерживается другое программное обеспечение. Установите, например, --markdown=glow или /md mdless в режиме чата.
Введите любое из следующих программного обеспечения Markdown в качестве аргумента для опции: bat , pygmentize , glow , mdcat или mdless .
Если не установлена option -c или -cc , для языковой модели не указана инструкция . В режиме чата, если не установлена инструкция, дана минимальная инструкция, а также некоторые параметры, такие как увеличение температуры и штрафа на присутствие, чтобы не лоботомизировать бот.
Оперативная инженерия - это искусство на себе. Тщательно изучите, как создать лучшие подсказки, чтобы получить максимальную отдачу от текста, кода и моделей завершения чата.
Модельное рулевое управление и возможности требуют быстрого инженера, чтобы даже знать, что он должен ответить на вопросы.
Установите подсказку с одним выстрелом с option -S :
chatgpt.sh -cc -S 'You are a PhD psycologist student.'
chatgpt.sh -ccS'You are a professional software programmer.'
Чтобы создать или загрузить файл шаблона приглашения, установите первый позиционный аргумент как .prompt_name или ,prompt_name . Во втором случае загрузите подсказку и редактируйте его.
chatgpt.sh -cc .psycologist
chatgpt.sh -cc ,software_programmer
В качестве альтернативы, установите option -S с оператором и название подсказки в качестве аргумента:
chatgpt.sh -cc -S .psycologist
chatgpt.sh -cc -S,software_programmer
Это загрузит пользовательскую подсказку или создаст ее, если она еще не существует. Во втором примере редактирование с одним выстрелом будет доступно после загрузки программного обеспечения .
Обратите внимание и обязательно сделайте резервную копию ваших важных пользовательских подсказок! Они расположены по адресу " ~/.cache/chatgptsh/ " с расширением " .pr ".
Установите подсказку от Awesome-Chatgpt-Prompts или Awesome-Chatgpt-Prompts-ZH (используйте с моделями Davinci и GPT-3.5+):
chatgpt.sh -cc -S /linux_terminal
chatgpt.sh -cc -S /Relationship_Coach
chatgpt.sh -cc -S '%担任雅思写作考官'
Этот проект включает в себя завершение оболочки для улучшения опыта командной строки пользователя.
Установите следующий один из методов ниже.
По всей системе
sudo cp comp/bash/chatgpt.sh /usr/share/bash-completion/completions/
Пользовательский специфический
mkdir -p ~/.local/share/bash-completion/completions/
cp comp/bash/chatgpt.sh ~/.local/share/bash-completion/completions/
Посетите репозиторий с завершением Bash.
Установите в расположении системы
sudo cp comp/zsh/_chatgpt.sh /usr/share/zsh/site-functions/
Пользовательский местоположение
Чтобы установить конкретное пользовательское завершение, обязательно поместите сценарий завершения в каталог в массиве $fpath .
Пользователь может создать, например, ~/.zfunc/ каталог и добавить в нее следующие строки ~/.zshrc :
[[ -d ~/.zfunc ]] && fpath=(~/.zfunc $fpath)
autoload -Uz compinit
compinit
Убедитесь, что compinit запускается после установки $fpath !
Посетите хранилище ZSH-завершения.
Завершение Bash и ZSH должно быть активным в новых сеансах терминала. Если нет, убедитесь, что ваш ~/.bashrc и ~/.zshrc правильно истолковывает файлы завершения.
Функция YouTube получит только видео на YouTube и ее транскрипты (когда они доступны).
Функция поддержки PDF извлекает текст PDF ( без изображений ) и добавляет его в пользовательский запрос.
Запустите команды чата с любым оператором ! или / .
Редактировать записи истории живой истории с Command !hist , для инъекции в контексте.
/ или // , чтобы получить последнее подсказку, отредактированное перед новым запросом. Генерировать изображение в соответствии с подсказкой:
chatgpt.sh -i "Dark tower in the middle of a field of red roses."
chatgpt.sh -i "512x512" "A tower."
Генерировать вариацию изображения:
chatgpt.sh -i path/to/image.png
chatgpt.sh -i path/to/image.png path/to/mask.png "A pink flamingo."
В этом примере маска сделана из белого цвета.
Добавление летучей мыши в ночное небо.
Создать транскрипцию из аудиофайл -речи. Подсказка для руководства стилем модели является необязательным. Подсказка должна соответствовать языку речи:
chatgpt.sh -w path/to/audio.mp3
chatgpt.sh -w path/to/audio.mp3 "en" "This is a poem about X."
1. Сгенерировать транскрипцию от голосовой записи, установите португальский язык в качестве языка, чтобы транскрибировать:
chatgpt.sh -w pt
Это также работает для расшифровки с одного языка на другой.
2. Перепроверьте любой языковой речевой ввод в японцы (предпочтительно, что подсказка должна быть на том же языке, что и входной аудиозаправочный язык):
chatgpt.sh -w ja "A job interview is currently being done."
3.1 Перевести ввод речи английского языка на японский и генерируйте вывод речи из текстового ответа.
chatgpt.sh -wz ja "Getting directions to famous places in the city."
3.2 Также делая это наоборот, это дает возможность (ручной) разговор поворотов двух носителей разных языков. Ниже японский оратор может перевести свой голос и генерировать аудио на целевом языке.
chatgpt.sh -wz en "Providing directions to famous places in the city."
4. Перевести речь с любого языка на английский:
chatgpt.sh -W [audio_file]
chatgpt.sh -W
Чтобы повторить последнюю запись микрофона, сохраненную в кэше, установите Audio_file как last или retry .
Примечание. Сгенерируйте option -ww двойной настройки времени на уровне фраза -WW или option -WW . Для временных метков уровня слов установите опцию -www или -WWW .
Убедитесь, что у вас есть LocalAI Mudler, настройка сервера.
Сервер можно запустить в виде контейнера Docker, или можно загрузить двоичный файл. Проверьте Localai Tutorials Container Images и запустите модели вручную, чтобы получить идею о том, как установить, загрузить модель и настроить ее.
┌───────────────────────────────────────────────────┐
│ Fiber v2.50.0 │
│ http://127.0.0.1:8080 │
│ (bound on host 0.0.0.0 and port 8080) │
│ │
│ Handlers ............. 1 Processes ........... 1 │
│ Prefork ....... Disabled PID ..................1 │
└───────────────────────────────────────────────────┘
1. Загрузите двоичный файл localai для вашей системы из Mudler's Release github Repo.
2. Запустите localai run --help , чтобы проверить параметры Comamnd Line и переменные среды.
3. Настройте $GALLERIES , прежде чем запустить сервер:
export GALLERIES='[{"name":"localai", "url":"github:mudler/localai/gallery/index.yaml"}]' #defaults
export GALLERIES='[{"name":"model-gallery", "url":"github:go-skynet/model-gallery/index.yaml"}]'
export GALLERIES='[{"name":"huggingface", "url": "github:go-skynet/model-gallery/huggingface.yaml"}]'
4. Установите модель с именем phi-2-chat из файла yaml вручную, в то время как сервер работает:
curl -L http://localhost:8080/models/apply -H "Content-Type: application/json" -d '{ "config_url": "https://raw.githubusercontent.com/mudler/LocalAI/master/embedded/models/phi-2-chat.yaml" }'
Наконец, при запуске chatgpt.sh установите имя модели:
chatgpt.sh --localai -cc -m luna-ai-llama2
Настройка некоторых последовательностей остановки может потребоваться, чтобы не дать модели генерировать текстовый контекст:
chatgpt.sh --localai -cc -m luna-ai-llama2 -s'### User:' -s'### Response:'
Необязательно установленные последовательности перезагрузки и начала для завершения текста Endpoint ( option -c ), например -s'n### User: ' -s'n### Response:' (Do Mind Newlines n и пробелы правильно).
И это все!
Названия моделей могут быть напечатаны с chatgpt.sh -l . Модель может быть представлена в качестве аргумента, так что показаны только детали модели.
Примечание. Управление модели (загрузка и настройка) должно следовать руководящим принципам и методам проектов LocalAI и Ollama.
Для генерации изображений установите стабильную диффузию из URL github:go-skynet/model-gallery/stablediffusion.yaml и для транскрипции речи, загрузите Whisper с URL github:go-skynet/model-gallery/whisper-base.yaml .
Если базовый URL -адрес поставщика услуг отличается от дефолтов.
Расширяемая среда $OPENAI_BASE_URL читается при вызове.
export OPENAI_BASE_URL="http://127.0.0.1:8080/v1"
chatgpt.sh -c -m luna-ai-llama2
Чтобы установить его более постоянным образом, отредактируйте файл конфигурации скрипта .chatgpt.conf .
Используйте Vim:
vim ~/.chatgpt.conf
Или отредактируйте конфигурацию с помощью опции Comamnd Line.
chatgpt.sh -F
И установите следующую переменную:
# ~/.chatgpt.conf
OPENAI_BASE_URL="http://127.0.0.1:8080/v1"
Посетите репозиторий Ollama и следуйте инструкциям по установке, загрузке моделей и настройте сервер.
После запуска Ollama Server, установите option -O ( --ollama ) и название модели в chatgpt.sh :
chatgpt.sh -cc -O -m llama2
Если URL Ollama Server не является дефолтом http://localhost:11434 , отредактируйте файл конфигурации chatgpt.sh и установите следующую переменную:
# ~/.chatgpt.conf
OLLAMA_BASE_URL="http://192.168.0.3:11434"
Получите бесплатный ключ API для Google, чтобы иметь возможность использовать модели Близнецов и видения. Пользователи имеют бесплатную полосу пропускания в 60 запросов в минуту, а сценарий предлагает базовую реализацию API.
Установите переменную Enviloment $GOOGLE_API_KEY и запустите сценарий с помощью option --google , например:
chatgpt.sh --google -cc -m gemini-pro-vision
OBS : Google Gemini Vision модели не включены для множества API, поэтому мы взламываем его.
Чтобы перечислить все доступные модели, запустите chatgpt.sh --google -l .
Установите учетную запись AISTRAL AI, объявите переменную Enviloment $MISTRAL_API_KEY и запустите сценарий с помощью option --mistral для полной интеграции.
Войдите в Groq. Создайте новую клавишу API или используйте существующий, чтобы установить переменную среды $GROQ_API_KEY . Запустите скрипт с option --groq .
В настоящее время модели LLAMMA3.1 доступны на скорости освещения!
Войдите в Antropic AI. Создайте новый ключ API или используйте существующий, чтобы установить переменную окружающей среды $ANTHROPIC_API_KEY . Запустите сценарий с помощью option --anthropic или --ant .
Проверьте модели Claude-3 ! Запустите сценарий как:
chatgpt.sh --anthropic -cc -m claude-3-5-sonnet-20240620
Сценарий также работает на завершении текста с такими моделями, как claude-2.1 , хотя документация API помечает его как устаревшего.
Пытаться:
chatgpt.sh --ant -c -m claude-2.1
GitHub сотрудничает с Azure, чтобы использовать свою инфраструктуру.
Как пользователь GitHub, присоединяйтесь к списку ожидания, а затем генерируйте личный токен. Установите переменную окружающей среды $GITHUB_TOKEN и запустите скрипт с помощью option --github или --git .
Проверьте онлайн -список моделей или перечислите доступные модели и их оригинальные имена с помощью chatgpt.sh --github -l .
chatgpt.sh --github -cc -m Phi-3-small-8k-instruct
См. Также Каталог модели Github - страница начала работы.
Novita AI предлагает ряд моделей LLM по исключительной цене, в том числе очень рекомендуемой модели Llama 3.3 , которая обеспечивает наилучший баланс цены и производительности!
Для модели без цензуры рассмотрим SAO10K/L3-70B-Euryale-V2.1 (творческий помощник и ролевой игрок) или CognitiveComputations/Dolphin-Mixtral-8x22b .
Создайте ключ API в соответствии с руководством быстрого начала и экспортируйте свой ключ как $NOVITA_API_KEY в вашу среду.
Затем запустите сценарий, такой как chatgpt.sh --novita -cc .
Проверьте веб -страницу списка моделей и цену каждой модели.
Чтобы перечислить все доступные модели, запустите chatgpt.sh --novita -l . При желании установите имя модели с option -l чтобы сбрасывать сведения модели.
Некоторые модели работают с конечной точкой /completions , в то время как другие работают с конечной точкой /chat/completions , поэтому сценарий не устанавливает конечную точку автоматически ! Проверьте сведения о модели и веб -страницы, чтобы понять их возможности, а затем запустите сценарий с помощью option -c ( завершение текста ) или options -cc ( завершение чата ).
В качестве упражнения вместо того, чтобы установить option --novita , вместо этого установите интеграцию Novita AI вручную:
export OPENAI_API_KEY=novita-api-key
export OPENAI_BASE_URL="https://api.novita.ai/v3/openai"
chatgpt.sh -cc -m meta-llama/llama-3.1-405b-instruct
Мы благодарны Novita AI за их поддержку и сотрудничество. Для получения дополнительной информации посетите Novita AI.
Посетите Xai Grok, чтобы сгенерировать ключ API (среда $XAI_API_KEY ).
Запустите скрипт с помощью option --xai , а также с option -cc (завершение чата.).
Некоторые модели также работают с завершением нативного текста. Для этого установите option -c вместо этого.
Этот проект Pkgbuild доступен в пользовательском репозитории Arch Linux ( AUR ) для установки программного обеспечения в Arch Linux и производных дистрибутивах.
Чтобы установить программу из AUR, вы можете использовать помощника AUR, такого как yay или paru . Например, с yay :
yay -S chatgpt.sh
Установите приложения Termux и Termux:API из магазина F-Droid .
Дайте все разрешения на Termux:API в настройках вашего телефона.
Мы рекомендуем также установить sox , ffmpeg , pulseaudio , imagemagick и vim (или nano ).
Не забудьте выполнить termux-setup-storage чтобы настроить доступ к хранилищам телефона.
В Specy Termux установите пакеты termux-api и termux-tools ( pkg install termux-api termux-tools ).
При записи Audio (Whisper, option -w ), если pulseaudio настроен правильно, в скрипте используется sox , ffmpeg или другое компетентное программное обеспечение, в противном случае он по умолчанию в termux-microphone-record
Аналогичным образом, при воспроизведении Audio (TTS, option -z ), в зависимости от конфигурации pulseaudio Используйте sox , mpv или Swarkback to Termux Promebace ( play-audio является необязательным).
Чтобы установить буфер обмена, требуется termux-clipboard-set из пакета termux-api .
Маркировка при вводе TTS может немного заикаться с генерацией речи модели. Если модули python markdown и bs4 доступны, вход TTS будет преобразован в простой текст. В качестве запасного пути используется pandoc , если он присутствует (только режим чата).
Под Termux убедитесь, что ваша система обновила и установлена с помощью пакетов python , rust и rustc-dev для строительства tiktoken .
pkg update
pkg upgrade
pkg install python rust rustc-dev
pip install tiktoken
Чтобы установить доступ к Termux для записи микрофона и воспроизведения аудио (с sox и ffmpeg ), следуйте приведенным ниже инструкциям.
A. Установите pulseaudio только один раз, выполнить:
pulseaudio -k
pulseaudio -L "module-sles-source" -D
B. Чтобы установить постоянную конфигурацию:
pulseaudio -k .load-module module-sles-source в один из файлов : ~/.config/pulse/default.pa
/data/data/com.termux/files/usr/etc/pulse/default.pa
pulseaudio -D . C. Чтобы создать нового пользователя ~/.config/pulse/default.pa , вы можете начать с следующего шаблона:
#!/usr/bin/pulseaudio -nF
.include /data/data/com.termux/files/usr/etc/pulse/default.pa
load-module module-sles-source
Чтобы получить доступ к вашим файлам Termux с использованием файлового диспетчера Android, установите приличный файловый диспетчер, такой как FX File Explorer из магазина Play и настройка его, или запустите следующую команду в вашем терминале Termux:
am start -a android.intent.action.VIEW -d "content://com.android.externalstorage.documents/root/primary"
Источник: https://www.reddit.com/r/mermux/comments/182g7np/where_do_i_find_my_things_that_i_downloaded/
Реализуйте хорошие функции от OpenAI API version 1 .
Предоставьте самые близкие по умолчанию API.
Пусть пользователь настраивает дефолт по умолчанию (как домашнее задание).
Première of chatgpt.sh version 1.0 должна произойти в то время, когда OpenAI запускает свое следующее обновление версии API.
ВЕРЕВАЯ 2024 ГРУБСКАЯ МАССА!
OpenAI API версия 1 находится в центре внимания настоящей реализации проекта. Не все особенности API будут покрыты.
Этот проект не поддерживает «функции вызова» или «структурированные выходы».
Возможно, мы не будем поддерживать чат в реальном времени или видео модальность.
Bash Shell усекает вход на