red ollama
1.0.0
git clone " https://github.com/davidhintelmann/red-ollama.git "
go build - o " llm.exe "
. llm.exePフラグを使用してプロンプトを入力します
. llm.exe - p " tell me a joke "Mフラグを使用して、使用するモデルを入力する
. llm.exe - p " tell me a joke " - m " phi3 " このレポは、GOプログラミング言語を使用してローカルでホストされているOllama Serverにプロンプトを送信する方法の例です。 Ollamaは、ローカルでホストされているLLMまたはSLMからプロンプトを要求できます。
たとえば、ダウンロードしてサービスを提供できます。
さらに、Redisを使用してプロンプトをキャッシュして応答します
前提条件:
Redisを使用するための簡単なアプローチは、応答とともにプロンプトをキャッシュすることであり、ユーザーが同じプロンプトを2回入力すると、代わりにキャッシュ結果が返されます。
これはWindows 11で開発され、WSL 2を使用してWindowsにRedisをインストールできます。
この例では、Redis文字列のみを使用してデータをキャッシュします。
Redis docsから
バイト配列と同様に、Redis文字列は、テキスト、シリアル化されたオブジェクト、カウンター値、バイナリ配列など、バイトのシーケンスを保存します。
たとえば、他のタイプもあります。
Redisスタックをインストールする場合は、データをJSONとして保存することもできます。詳細については、こちらをご覧ください。
LLMは、JSONで応答を出力し、同じ形式でデータをキャッシュすることが多くの場合、理想的なアプローチです。