LLM-MEM?
セマンティックメモリストレージを備えた拡張言語モデル
ベクトル埋め込みと類似性検索を使用して、永続的なセマンティックメモリを使用して言語モデルを増強するPythonベースの実装。
?特徴
- NLTKを使用した会話のセマンティックチャンク
- センテンテーショントランスを使用したベクトル埋め込み生成
- COSINE類似性ベースのコンテキスト検索
- ベクトルデータベースを使用した永続的なメモリストレージ
- よりコヒーレントな応答のための自動コンテキストインジェクション
- コードブロックの保存でチャンクしているスマートテキスト
技術スタック
sentence-transformers :セマンティック埋め込みを生成するためnltk :テキスト操作のための自然言語処理ツールキット- カスタムLLM統合
- 埋め込みを保存および取得するためのベクトルストア
- ベクトル操作用のREST APIエンドポイント
?前提条件
- 文の変換器
- nltk
- リクエスト
- Google-Generativeai
クイックスタート
- リポジトリをクローンします:
git clone https://github.com/Abhigyan126/LLM-MEM.git
cd LLM-MEM
- 依存関係をインストールします:
pip install sentence-transformers nltk requests google-generativeai
- .envファイルを作成します
- メインスクリプトを実行します:
それがどのように機能するか
- テキスト処理:着信メッセージは処理およびクリーニングされます
- 埋め込み生成:テキストをベクトル埋め込みに変換します
- セマンティック検索:コサインの類似性を使用して関連する以前のコンテキストを見つけます
- コンテキスト統合:関連する履歴と現在のクエリをマージします
- 応答生成:コンテキストが強化されたLLMを使用して応答を生成します
- メモリストレージ:将来のリファレンスのために新しいインタラクションを保存します
?構成
システムは、いくつかの構成可能なパラメーターを使用します。
- 最大チャンク長:2000文字
- 最小チャンクサイズ:100文字
- 類似のしきい値:0.5
- デフォルトの最近傍:10