llocalsearchは、ローカルでLarge Language Models (ChatGTPなど、はるかに小さく、「スマート」ではない)を実行しているラッパーであり、ツールのセットから選択できます。これらのツールを使用すると、質問に関する現在の情報をインターネットで検索できます。このプロセスは再帰的です。つまり、実行中のLLMは、お客様や他のツールコールから得られる情報に基づいて、ツールを複数回使用することを自由に使用できます。
xyのものではなく、なぜこれを使用したいのですか?Openaiが大きなメディアハウスに販売している長期計画:
さらに、プログラムのメンバーは、チャット会話における優先順位の配置と「豊かなブランド表現」を受け取り、そのコンテンツはより顕著なリンク治療から利益を得ます。
最高の入札者から操作されるというアイデアが嫌いな場合は、このプロジェクトのように、差別的でない代替案を試してみたいと思うかもしれません。
Langchain Library IMを使用しているLalma3の停止単語を尊重するものではなく、ターンの終わりにLlama3が幻覚を起こし始めます。私は実用的なパッチを持っています(実験のブランチをチェックアウトします)が、私の道がこれを解決する正しい方法であるかどうかわからないので、Langchaingoチームからの応答をまだ待っています。
インターフェイスのオーバーホール。より柔軟なパネルとスペースのより効率的な使用を可能にします。オブシディアンの現在のレイアウトに触発されました
多くの内部データ構造をリファクタリングして、データ送信とインターフェイスパーツ全体を再び書き換えることなく、将来機能を拡張するためのより優れた柔軟な方法を可能にするなど、多くの作業が必要です。
独自のドキュメントをアップロードしたり、LloCalsearchをGoogleドライブなどのサービスやConfluenceなどのサービスに接続するなど、Ragチェーン内の個人情報の基礎。
これを実装する正しい方法があるかどうかはわかりませんが、メインエージェントチェーンに、設定など、ユーザーごとに追加のベクターDBネームスペースを持つことなど、ユーザーに関する情報を提供します。
[email protected]:nilsherzig/LLocalSearch.git
cd LLocalSearch.envファイルを作成および編集します。これは通常、Ollamaが別のデバイスで実行されている場合、またはより複雑なセットアップを構築したい場合にのみ必要です(個人用F.Ex.以上)。 Ollama Connectionの実行に苦労している場合は、Ollamaセットアップガイドをお読みください。 touch .env
code .env # open file with vscode
nvim .env # open file with neovimdocker-compose up -d