OpenaiのChatGpt、Dall-E、Whisper、およびTTSのシェルラッパー。 Localai、Ollama、Gemini、Mistral、Groq、およびGitHubモデルの統合を特徴としています。
デフォルトでストリーミングを使用したチャットの完了。
応答時のマークダウン処理は、しばらくの間自動的にトリガーされます!
チャット応答のマークダウンレンダリング(オプション)。
純粋なテキストの完了では、ニュース、ストーリー、詩など、完成する予定のテキストを入力することから始めます。
挿入タグ[insert]が完了する場所に追加します。ミストラルcode modelsインサート /フィルインザミッデル(FIM)モードでうまく機能します!接尾辞が提供されていない場合、それは単純なテキストの完成として機能します。
options -cczw )BashcURL 、およびJQ特定の機能に必要なパッケージ。
Base64画像エンドポイント、マルチモーダルモデルPython -Modules Tiktoken、Markdown、BS4ImageMagick / fbida画像の編集とバリエーションSoX / Arecord / FFmpeg入力を記録する(ささやき)mpv / SoX / Vlc / FFplay / afplay -TTS出力を再生するxdg-open / open / xsel / xclip / pbcopyオープン画像、クリップボードを設定するW3M / Lynx / ELinks / Links -dump urlテキストbat / Pygmentize / Glow / mdcat / mdlessマークダウンサポートtermux-api / termux-tools / play-audio Termuxシステムpoppler / gs / abiword / ebook-convert / LibreOffice -pdfまたはdocをテキストとして捨てるdialog / kdialog / zenity / osascript / termux-dialogファイルピッカーA.スタンドアロンのchatgpt.shスクリプトをダウンロードして、実行可能にします。
wget https://gitlab.com/fenixdragao/shellchatgpt/-/raw/main/chatgpt.sh
chmod +x ./chatgpt.sh
B.またはこのリポジトリのクローン:
git clone https://gitlab.com/fenixdragao/shellchatgpt.git
C.オプションで、構成ファイルをダウンロードして設定します~/.chatgpt.conf :
#save configuration template:
chatgpt.sh -FF >> ~/.chatgpt.conf
#edit:
chatgpt.sh -F
# Or
vim ~/.chatgpt.conf
コマンドラインoptions -ccを使用すると、一部のプロパティが自動的に設定され、チャットボットが作成されます。チャットモードで新しいセッションを開始し、異なる温度( GPT-3.5およびGPT-4+モデル)を設定します。
chatgpt.sh -cc -t0.7
最大応答長を4Kトークンに変更します。
chatgpt.sh -cc -4000
chatgpt.sh -cc -M 4000
または、モデルトークン容量を200kトークンに変更します。
chatgpt.sh -cc -4000-200000
chatgpt.sh -cc -M 4000-200000
MARVを作成し、皮肉なボット:
chatgpt.sh -512 -cc --frequency-penalty=0.7 --temp=0.8 --top_p=0.4 --restart-seq='nYou: ' --start-seq='nMarv:' --stop='You:' --stop='Marv:' -S'Marv is a factual chatbot that reluctantly answers questions with sarcastic responses.'
新しいセッションにUNIX命令ファイル( "unix.pr")をロードします。以下のコマンドラインの構文はすべてエイリアスです。
chatgpt.sh -cc .unix
chatgpt.sh -cc.unix
chatgpt.sh -cc -.unix
chatgpt.sh -cc -S .unix
セッションが記録される履歴ファイルのみをチェージするには、オペレーターのフォワードスラッシュ " / "と履歴ファイルの名前(デフォルトは/sessionコマンドに)を使用して、コマンドラインで最初の位置引数を設定します。
chatgpt.sh -cc /test
chatgpt.sh -cc /stest
chatgpt.sh -cc "/session test"
現在の履歴ファイルから古いセッションをロードするショートカットがあります。これにより、基本的な相互作用インターフェイスが開きます。
chatgpt.sh -cc .
技術的には、これはターゲット履歴ファイルからテールの古いセッションをコピーするため、セッションを再開できます。
デフォルトとは異なる履歴ファイルから古いセッションをロードするには、いくつかのオプションがあります。
Regexを使用したセッションにGrepを使用するために、チャットモードに入り、Chat Command /grep [regex]を入力しやすくなります。
定義された履歴ファイル名にのみ変更するには、 !session [name]を実行します。
最後のセッションを印刷して、オプションで履歴名を設定します。
chatgpt.sh -P
chatgpt.sh -P /test
image / url Visionモデルに送信するには、スクリプトを開始し、1つ以上のFilePaths / URLを使用して!imgチャットコマンドを使用して画像を設定します。
chatgpt.sh -cc -m gpt-4-vision-preview '!img path/to/image.jpg'
または、プロンプトの最後に画像パス / URLを設定します。
chatgpt.sh -cc -m gpt-4-vision-preview
[...]
Q: In this first user prompt, what can you see? https://i.imgur.com/wpXKyRo.jpeg
ヒント:チャットコマンドを実行!infoモデル構成を確認してください!
デバッグ: option -Vを設定して、RAW JSONリクエスト本体を表示します。
簡単なワークフォーを作成するために、ユーザーはプロンプトの最後にFilepathまたはURLを追加できます。次に、ファイルが読み取り、テキストコンテンツがユーザープロンプトに追加されます。これは、あらゆるモデルで動作する基本的なテキスト機能です。
chatgpt.sh -cc
[...]
Q: What is this page: https://example.com
Q: Help me study this paper. ~/Downloads/Prigogine Perspective on Nature.pdf
上記の2番目の例では、 PDFはテキスト(インタラクティブモード)としてダンプされます。
PDFテキストダンプサポートの場合、 poppler/abiwordが必要です。 DOCおよびODTファイルの場合、 LibreOfficeが必要です。オプションのパッケージセクションを参照してください。
また、白いスペースを含むファイルパスはblackslash-escapedでなければならないか、Pipeが先行する必要があることに注意してください|キャラクター。
My text prompt. | path/to the file.jpg
複数の画像とオーディオファイルがこのようにプロンプトに追加される場合があります!
/pickコマンドは、ファイルピッカー(通常はコマンドラインファイルマネージャー)を開きます。選択したファイルのパスは、編集モードで現在のプロンプトに追加されます。
/pickおよび/shコマンドは、 [PROMPT] /shなどの現在のプロンプトの最後に入力すると実行できます。これにより、コマンドをインタラクティブに実行する新しいシェルインスタンスが開きます。これらのコマンドの出力は、現在のプロンプトに追加されます。
/pickコマンドがプロンプトの最後に実行されると、選択したファイルパスが代わりに追加されます。
白いスペースを含むファイルパスでは、一部の機能でバックスラッシュエスケープが必要です。
スピーチの出入りとチャットの完了(Whisper Plus TTS):
chatgpt.sh -ccwz
ささやきでポルトガル語でチャットし、TTSの音声としてOnyxを設定します。
chatgpt.sh -ccwz -- pt -- onyx
チャットモードは会話エクスペリエンスを提供し、ユーザーに各ステップを確認するように促します。
より自動化された実行の場合、ハンズフリーエクスペリエンス(Silence Detectionを使用したライブチャット)のためにoption -vと-vvを設定します。
chatgpt.sh -cc -w -z -v
chatgpt.sh -cc -w -z -vv
gpt-4o-audioなどのオーディオモデルは、オーディオ入力と出力を直接処理するため、会話ターンでの遅延が減少します。
スクリプトのマイク記録関数をアクティブにするには、コマンドラインoption -wを設定します。
それ以外の場合、オーディオモデルは互換性のあるオーディオファイル( MP3 、 WAV 、 OPUSなど)を受け入れます。これらのファイルは、ユーザープロンプトの最後にロードするか、チャットコマンド/audio path/to/file.mp3で追加することができます。
上記と同様に、オーディオモデルのオーディオ出力モードをアクティブにするには、コマンドラインoption -zを設定して、音声合成関数を有効にするようにします。
chatgpt.sh -cc -w -z -vv -m "gpt-4o-audio-preview"
これはリアルタイムモデルを実装していないことに注意してください。
option -cとチャットするためにテキスト完了が設定されている場合、一部のプロパティは自動的に構成され、ボットを指示します。
chatgpt.sh -c "Hello there! What is your name?"
これは、純粋なテキスト完了エンドポイントです。通常、エッセイの一部を完了するなど、入力テキストを完成させるために使用されます。
コマンドライン入力プロンプトからテキストを完了するには、 option -dを設定するか、テキスト完了モデル名を設定します。
chatgpt.sh -128 -m gpt-3.5-turbo-instruct "Hello there! Your name is"
chatgpt.sh -128 -d "The journalist loo"
上記の例は、128トークンに最大応答値を設定します。
シングルターンインタラクティブモードを入力します。
chatgpt.sh -d
注:履歴サポートを備えたマルチターンモードの場合、 option -ddを設定します。
言語モデルが必要なことを行うには、強力な命令プロンプトが必要になる場合があります。
より良い結果を得るには、命令プロンプトを設定します。
chatgpt.sh -d -S 'The following is a newspaper article.' "It all starts when FBI agents arrived at the governor house and"
chatgpt.sh -d -S'You are an AI assistant.' "The list below contain the 10 biggest cities in the w"
挿入モードを有効にし、モデルがテキストを挿入する場所に文字列[insert]を有効にするためにoption -q (またはマルチターン用-qq )を設定します。
chatgpt.sh -q 'It was raining when [insert] tomorrow.'
注:この例は、命令プロンプトなしで動作します!このモードでの命令プロンプトは、挿入の完了を妨げる場合があります。
注:挿入モードは、モデルinstruct modelsで動作します。
Mistral AIには、 codeモデルで動作する素敵なFIM(ミドルの充填)エンドポイントがあり、本当に良いです!
応答のマークダウンレンダリングを有効にするには、チャットモードでコマンドラインoption --markdownまたは実行/md設定します。マークダウンで最後の応答を1回レンダリングするには、 //mdを実行します。
マークダウンオプションは、デフォルトでラインバッファリングがあるため、 batを使用しますが、他のソフトウェアがサポートされています。 --markdown=glowまたは/md mdlessでチャットモードなどを設定します。
オプションの引数として、次のMarkdownソフトウェアのいずれかを入力します: bat 、 pygmentize 、 glow 、 mdcat 、またはmdless 。
チャットoption -cまたは-ccが設定されていない限り、言語モデルには指示は与えられません。チャットモードでは、命令が設定されていない場合は、最小限の命令が与えられ、ボットを非botするために、温度や存在ペナルティの増加など、いくつかのオプションが設定されます。
迅速なエンジニアリングはそれ自体が芸術です。テキスト、コード、チャットの完了モデルを最大限に活用するために、最良のプロンプトを作成する方法を注意深く研究してください。
モデルのステアリングと機能には、質問に答える必要があることを知るために、迅速なエンジニアリングが必要です。
option -S :
chatgpt.sh -cc -S 'You are a PhD psycologist student.'
chatgpt.sh -ccS'You are a professional software programmer.'
プロンプトテンプレートファイルを作成またはロードするには、最初の位置引数を.prompt_nameまたは,prompt_nameとして設定します。 2番目のケースでは、プロンプトとシングルショットの編集をロードします。
chatgpt.sh -cc .psycologist
chatgpt.sh -cc ,software_programmer
または、オペレーターを使用してoption -S設定し、プロンプトの名前を引数として設定します。
chatgpt.sh -cc -S .psycologist
chatgpt.sh -cc -S,software_programmer
これにより、カスタムプロンプトがロードされるか、まだ存在しない場合は作成します。 2番目の例では、Prompt Software_Programmerを読み込んだ後、シングルショット編集が利用可能になります。
注意して、重要なカスタムプロンプトをバックアップしてください!それらは、「 ~/.cache/chatgptsh/ "with the Extension" .pr "にあります。
Awesome-chatgpt-promptsまたはAwesome-chatgpt-prompts-zh(DavinciおよびGPT-3.5+モデルで使用)からプロンプトを設定します。
chatgpt.sh -cc -S /linux_terminal
chatgpt.sh -cc -S /Relationship_Coach
chatgpt.sh -cc -S '%担任雅思写作考官'
このプロジェクトには、ユーザーコマンドラインエクスペリエンスを強化するためのシェル完了が含まれています。
以下の方法の1つに従ってインストールします。
システム全体
sudo cp comp/bash/chatgpt.sh /usr/share/bash-completion/completions/
ユーザー固有
mkdir -p ~/.local/share/bash-completion/completions/
cp comp/bash/chatgpt.sh ~/.local/share/bash-completion/completions/
Bash-completionリポジトリにアクセスしてください。
システムの場所にインストールします
sudo cp comp/zsh/_chatgpt.sh /usr/share/zsh/site-functions/
ユーザー固有の場所
ユーザー固有の完了を設定するには、 $fpathアレイのディレクトリの下に完了スクリプトを配置してください。
ユーザーは、たとえば~/.zfunc/ディレクトリを作成し、次の行を~/.zshrcに追加できます。
[[ -d ~/.zfunc ]] && fpath=(~/.zfunc $fpath)
autoload -Uz compinit
compinit
$fpathを設定した後、 compinitが実行されることを確認してください!
ZSH-Completionリポジトリにアクセスしてください。
BASHとZSHの完了は、新しいターミナルセッションでアクティブになるはずです。そうでない場合は、 ~/.bashrcと~/.zshrcソースを確認してください。完了ファイルを正しく送信します。
YouTube機能は、YouTubeビデオの見出しタイトルとそのトランスクリプトのみを取得します(利用可能な場合)。
PDFサポート機能は、PDFテキスト(画像なし)を抽出し、ユーザーリクエストに追加します。
いずれかのオペレーターとチャットコマンドを実行します!または/ 。
コンテキストインジェクションのために、コマンド!histでライブ履歴エントリを編集します。
/ 、 //最後に編集することにより、応答を再生成できます。 プロンプトに従って画像を生成します:
chatgpt.sh -i "Dark tower in the middle of a field of red roses."
chatgpt.sh -i "512x512" "A tower."
画像のバリエーションを生成します:
chatgpt.sh -i path/to/image.png
chatgpt.sh -i path/to/image.png path/to/mask.png "A pink flamingo."
この例では、マスクは白い色で作られています。
夜空にコウモリを追加します。
オーディオファイルのスピーチから転写を生成します。モデルのスタイルをガイドするためのプロンプトはオプションです。プロンプトは音声言語と一致する必要があります。
chatgpt.sh -w path/to/audio.mp3
chatgpt.sh -w path/to/audio.mp3 "en" "This is a poem about X."
1.音声録音から転写を生成し、転写する言語としてポルトガル語を次のように設定します。
chatgpt.sh -w pt
これは、ある言語から別の言語への転写にも機能します。
2。日本語への言語音声入力を転写します(プロンプトは、できれば入力オーディオ言語と同じ言語である必要があります):
chatgpt.sh -w ja "A job interview is currently being done."
3.1英語の音声入力を日本語に翻訳し、テキスト応答から音声出力を生成します。
chatgpt.sh -wz ja "Getting directions to famous places in the city."
3.2また、逆に、これは異なる言語の2つのスピーカーの会話ターンを(マニュアル)会話する機会を与えます。以下では、日本のスピーカーが音声を翻訳し、ターゲット言語でオーディオを生成できます。
chatgpt.sh -wz en "Providing directions to famous places in the city."
4。スピーチをあらゆる言語から英語に翻訳します。
chatgpt.sh -W [audio_file]
chatgpt.sh -W
キャッシュに保存された最後のマイク録音で再試行するには、 audio_fileをlastに設定するか、 retry 。
注:句レベルのタイムスタンプを生成しますダブル設定option -wwまたはoption -WW 。単語レベルのタイムスタンプの場合は、オプションを設定-wwwまたは-WWW 。
MudlerのLocalai、サーバーのセットアップと実行を持っていることを確認してください。
サーバーはDockerコンテナとして実行できます。また、バイナリをダウンロードできます。 Localaiチュートリアルコンテナ画像を確認し、モデルを手動で実行して、モデルのインストール、ダウンロード、セットアップの方法についてのアイデアを実行します。
┌───────────────────────────────────────────────────┐
│ Fiber v2.50.0 │
│ http://127.0.0.1:8080 │
│ (bound on host 0.0.0.0 and port 8080) │
│ │
│ Handlers ............. 1 Processes ........... 1 │
│ Prefork ....... Disabled PID ..................1 │
└───────────────────────────────────────────────────┘
1. MudlerのリリースGithub Repoからシステム用のlocalaiのバイナリをダウンロードします。
2。RunLocalai localai run --help comamnd Lineオプションと環境変数を確認します。
3.サーバーを起動する前に$GALLERIESを設定します。
export GALLERIES='[{"name":"localai", "url":"github:mudler/localai/gallery/index.yaml"}]' #defaults
export GALLERIES='[{"name":"model-gallery", "url":"github:go-skynet/model-gallery/index.yaml"}]'
export GALLERIES='[{"name":"huggingface", "url": "github:go-skynet/model-gallery/huggingface.yaml"}]'
4.サーバーが実行されている間に、 yamlファイルからphi-2-chatという名前のモデルを手動でインストールします。
curl -L http://localhost:8080/models/apply -H "Content-Type: application/json" -d '{ "config_url": "https://raw.githubusercontent.com/mudler/LocalAI/master/embedded/models/phi-2-chat.yaml" }'
最後に、 chatgpt.shを実行するときは、モデル名を設定します。
chatgpt.sh --localai -cc -m luna-ai-llama2
モデルが過去のコンテキストを生成するのを防ぐために、いくつかの停止シーケンスを設定する必要がある場合があります。
chatgpt.sh --localai -cc -m luna-ai-llama2 -s'### User:' -s'### Response:'
オプションで、 -s'n### User: ' -s'n### Response:'などのテキスト完了エンドポイント( option -c )の再起動と開始シーケンスを設定します:' -s ' n ###応答:'
そしてそれだけです!
モデル名はchatgpt.sh -lで印刷できます。モデルは引数として提供される場合があるため、そのモデルの詳細のみが表示されます。
注:モデル管理(ダウンロードとセットアップ)は、LocalaiおよびOllamaプロジェクトのガイドラインと方法に従う必要があります。
画像生成の場合、URL github:go-skynet/model-gallery/stablediffusion.yamlから安定した拡散を取り付け、音声転写の場合は、URL github:go-skynet/model-gallery/whisper-base.yaml 。
サービスプロバイダーのベースURLがデフォルトとは異なる場合。
環境の変化$OPENAI_BASE_URL 、呼び出し時に読み取られます。
export OPENAI_BASE_URL="http://127.0.0.1:8080/v1"
chatgpt.sh -c -m luna-ai-llama2
より永続的に設定するには、スクリプト構成ファイル.chatgpt.confを編集します。
VIMを使用してください:
vim ~/.chatgpt.conf
または、Comamnd Lineオプションで構成を編集します。
chatgpt.sh -F
次の変数を設定します。
# ~/.chatgpt.conf
OPENAI_BASE_URL="http://127.0.0.1:8080/v1"
Ollamaリポジトリにアクセスし、指示に従って、モデルをインストールし、ダウンロードし、サーバーをセットアップします。
Ollamaサーバーを実行した後、 option -O ( --ollama )を設定し、 chatgpt.shのモデルの名前を設定しました。
chatgpt.sh -cc -O -m llama2
Ollama Server URLがデフォルトではない場合http://localhost:11434 、 chatgpt.sh構成ファイルを編集し、次の変数を設定します。
# ~/.chatgpt.conf
OLLAMA_BASE_URL="http://192.168.0.3:11434"
GoogleがGeminiモデルとビジョンモデルを使用できるようにするための無料のAPIキーを取得します。ユーザーは1分あたり60のリクエストの無料帯域幅があり、スクリプトはAPIの基本的な実装を提供します。
環境変数$GOOGLE_API_KEYを設定し、次のようなoption --google )でスクリプトを実行します。
chatgpt.sh --google -cc -m gemini-pro-vision
OBS :Google Gemini Vision Modelsは、API側のMultiturnには有効になっていないため、ハックします。
利用可能なすべてのモデルをリストするには、 chatgpt.sh --google -lを実行します。
ミストラルAIアカウントを設定し、環境変数$MISTRAL_API_KEYを宣言し、完全な統合のためにoption --mistralで実行します。
Groqにサインインします。新しいAPIキーを作成するか、既存のキーを使用して環境変数$GROQ_API_KEYを設定します。 option --groqを使用してスクリプトを実行します。
現在、 LLAMMA3.1モデルは軽速度で利用できます!
吸い込みAIにサインインします。新しいAPIキーを作成するか、既存のキーを使用して環境変数$ANTHROPIC_API_KEYを設定します。 option --anthropicまたは--antでスクリプトを実行します。
Claude-3モデルを確認してください!スクリプトを実行します:
chatgpt.sh --anthropic -cc -m claude-3-5-sonnet-20240620
このスクリプトはclaude-2.1などのモデルを使用してテキストの完了でも機能しますが、APIドキュメントはそれを非推奨としてフラグを立てています。
試す:
chatgpt.sh --ant -c -m claude-2.1
GithubはAzureと提携して、その剥離を使用しています。
GitHubユーザーとして、WaitListに参加してから、個人トークンを生成します。環境変数$GITHUB_TOKENを設定し、 option --githubまたは--gitでスクリプトを実行します。
オンラインモデルリストを確認するか、 chatgpt.sh --github -lで使用可能なモデルと元の名前をリストします。
chatgpt.sh --github -cc -m Phi-3-small-8k-instruct
GitHubモデルカタログ - 開始ページも参照してください。
Novita AIは、価格とパフォーマンスの最高のバランスを提供する強く推奨されるLlama 3.3モデルを含む、並外れた価値のあるさまざまなLLMモデルを提供しています。
無修正モデルの場合は、 SAO10K/L3-70B-Euryale-V2.1 (クリエイティブアシスタントおよびロールプレイ)またはCognitiveComputations/Dolphin-Mixtral-8X22Bを検討してください。
クイックスタートガイドに従ってAPIキーを作成し、 $NOVITA_API_KEYとしてキーを環境にエクスポートします。
次に、 chatgpt.sh --novita -ccなどのスクリプトを実行します。
モデルリストのWebページと各モデルの価格を確認してください。
利用可能なすべてのモデルを一覧表示するには、 chatgpt.sh --novita -lを実行します。オプションで、モデルの詳細をダンプするには、 option -lを使用してモデル名を設定します。
/completionsエンドポイントで動作するモデルもあれば、 /chat/completionsエンドポイントで動作するモデルもあるため、スクリプトはエンドポイントを自動的に設定しません!モデルの詳細とWebページを確認して機能を理解し、 option -c (テキスト完了)またはoptions -cc (チャット完了)でスクリプトを実行します。
演習として、コマンドラインoption --novitaを設定する代わりに、代わりに手動でNovita AI統合を設定します。
export OPENAI_API_KEY=novita-api-key
export OPENAI_BASE_URL="https://api.novita.ai/v3/openai"
chatgpt.sh -cc -m meta-llama/llama-3.1-405b-instruct
Novita AIのサポートとコラボレーションに感謝しています。詳細については、Novita AIをご覧ください。
Xai Grokにアクセスして、APIキー(環境$XAI_API_KEY )を生成します。
option --xaiおよびoption -cc (チャット完了)でスクリプトを実行します。
一部のモデルでは、ネイティブのテキストの完了でも動作します。そのために、代わりにコマンドラインoption -cを設定します。
このプロジェクトPKGBUILDは、Arch Linuxユーザーリポジトリ( AUR )で入手でき、ソフトウェアをArch LinuxおよびDerivative Distrosにインストールします。
AURからプログラムをインストールするには、 yayやparuなどのAURヘルパーを使用できます。たとえば、 yay :
yay -S chatgpt.sh
F-DroidストアからTermuxおよびTermux:APIアプリをインストールします。
Termux:APIのすべての権限を携帯電話アプリの設定に与えます。
また、 sox 、 ffmpeg 、 pulseaudio 、 imagemagick 、およびvim (またはnano )をインストールすることも再構成します。
termux-setup-storageを実行して、電話ストレージへのアクセスをセットアップすることを忘れないでください。
Termux適切な場合、 termux-apiおよびtermux-toolsパッケージ( pkg install termux-api termux-tools )をインストールします。
オーディオ(Whisper、 option -w )を録音する場合、 pulseaudioが正しく構成されている場合、スクリプトはsox 、 ffmpeg 、または他の有能なソフトウェアを使用しますtermux-microphone-record
同様に、Audio(TTS、 option -z )を再生する場合、 pulseaudioの構成に応じて、 sox 、 mpv 、またはFallback to Termuxラッパーの再生( play-audioはオプションです)を使用します。
クリップボードを設定するには、 termux-apiパッケージからtermux-clipboard-setが必要です。
TTS入力のマークダウンは、モデルの音声生成を少しst音する可能性があります。 pythonモジュールmarkdownとbs4が利用可能な場合、TTS入力はプレーンテキストに変換されます。フォールバックとして、 pandocが存在する場合は使用されます(チャットモードのみ)。
Termuxでは、 tiktoken構築するためのpython 、 rust 、およびrustc-devパッケージでシステムを更新およびインストールするようにしてください。
pkg update
pkg upgrade
pkg install python rust rustc-dev
pip install tiktoken
Microphoneの記録と音声を再生するためにTermuxアクセスを設定するには( soxとffmpegを使用)、以下の指示に従ってください。
A. pulseaudioを一度だけ設定し、実行してください。
pulseaudio -k
pulseaudio -L "module-sles-source" -D
B.永続的な構成を設定するには:
pulseaudio -kでプロセスを殺します。load-module module-sles-sourceを追加します。 ~/.config/pulse/default.pa
/data/data/com.termux/files/usr/etc/pulse/default.pa
pulseaudio -Dでサーバーを再起動します。 C.新しいユーザーを作成するには~/.config/pulse/default.pa作成するには、次のテンプレートから始めることができます。
#!/usr/bin/pulseaudio -nF
.include /data/data/com.termux/files/usr/etc/pulse/default.pa
load-module module-sles-source
Androidのファイルマネージャーを使用してTermuxファイルにアクセスするには、Play StoreからFX File Explorerなどの適切なファイルマネージャーをインストールして構成するか、Termuxターミナルで次のコマンドを実行します。
am start -a android.intent.action.VIEW -d "content://com.android.externalstorage.documents/root/primary"
出典:https://www.reddit.com/r/termux/comments/182g7np/where_do_i_find_my_things_that_i_downloaded/
OpenAI API version 1の優れた機能を実装します。
最も近いAPIデフォルトを提供します。
ユーザーにデフォルトをカスタマイズしさせます(宿題として)。
chatgpt.sh version 1.0のプレミアは、Openaiが次の主要なAPIバージョンアップデートを開始したときに発生するはずです。
Merry 2024 Grav Mass!
Openai APIバージョン1は、現在のプロジェクト実装の焦点です。 APIのすべての機能がカバーされるわけではありません。
このプロジェクトは、「関数呼び出し」または「構造化された出力」をサポートしていません。
おそらく、「リアルタイム」チャットやビデオモダリティをサポートしません。
バッシュシェルは