Jonathan Germain Copyright2023によるAndroid Remote GPT GNU GPLバージョン3でリリース
AndroidRemoteGPTは、リモートサーバーで実行されているチャットボット用のAndroidフロントエンドです。これは、SSHを介してリモートサーバーで実行されているチャットボットまたはその他の推論エンジンにアクセスするための便利な方法を提供するAndroid/Termux Miniappです。 GPT4Allを介して提供されるようなオープンソース生成AIモデルのユーザーを対象としています。
AndroidRemoteGPTには、AndroidとTermuxの両方が必要です。また、Termux:GUIが必要です。 F-Droid Termux:GUIパッケージの署名に関する継続的な問題のため、F-Droid TermuxリリースではなくGitHub Termuxリリースを使用する必要があります。 Google PlayのTermuxのバージョンは、不安でなくパッチが適用されないため、使用しないでください。
このソフトウェアは、クライアント/サーバーモデル用に構築されています。推論が行われるサーバーが必要です。 2023年12月の時点で、Linuxで実行できるさまざまなオープンソースモデルとアーキテクチャが利用可能です。 gpt4allの命令は提供されますが、フロントエンドはさまざまなバックエンドで使用できます。
host yourserver
user aiuser
hostname yourserver.com
identityfile ~/.ssh/id
インストールが完了しました。これで、「python androidremotegpt.py」を実行できます
useradd aiuser
mkdir /home/aiuser
chown aiuser.aiuser /home/aiuser
pip install gpt4all
pip uninstall gpt4all
pip install typer
git clone --recurse-submodules https://github.com/nomic-ai/gpt4all
cd gpt4all/gpt4all-backend/
mkdir build
cd build
cmake ..
cmake --build . --config Release
cd ~/gpt4all/gpt4all-bindings/python/
pip install -e .
mkdir ~/.cache
mkdir ~/.cache/gpt4all
cd ~/.cache/gpt4all
ln -s /where/you/store/your/models/* .
#!/bin/sh
python3 ~/gpt4all/gpt4all-bindings/cli/app.py repl --model /wherever/you/put/your/model.gguf
オプションで、使用したいビデオカードがある場合は、「-t(#of threads)」と「-d gpu」または「-d nvidia」を含めることができます。
まず、[構成]ページにアクセスし、サーバー情報が正しいことを確認します。次のコマンドインジケーター(NCI)とスタートアップシーケンスは特に重要です。スタートアップシーケンスは、推論インターフェイスに到達するためにサーバーで実行するシェルコマンドのリストです。 NCIは、チャットボットが答えを終えたときにフロントエンドに伝えます。 gpt4allバージョン1.0.2の場合、NCIは単一の文字「⇢」です
次に、メインページに戻り、[接続]をクリックします。
イントロ画面が表示されます。その後、画面上部のボックスにクエリを入力し、[リクエスト]をクリックしてクエリを送信できます。 「リクエスト」をクリックする必要があることに注意してください。 Enterを単独で押すと、クエリが送信されません。
安全な通信は複雑です。 Opensshは、この分野で最も激しくテストされたプログラムの1つです。あまりテストされていないSSH実装が、管理する帯域幅がないセキュリティ関連のバグを導入することを恐れています。
はい。 Huggingfaceからモデルを引いて、推論を実行するために独自のPythonスクリプトを作成するか、チャットボット以外のモデルを使用する場合、これは機能します。システムを変更するときは、必ず次のコマンドインジケーターを変更してください。