langchain_readlocal
langchainを使用してローカルファイルをベクトルデータベースに読み込み、ベクトル化されたドキュメントを使用してLLMでQ&Aを開始します
使い方
- ユーザーは、要件からpythonパッケージをインストールする必要があります。txtファイル、使用されるpythonバージョンは次のとおりです。
- ユーザーは、モジュールの場所に設置された場所にインストールされているGPT4all.pyファイルを提供するgpt4all.pyファイルを提供する必要があります。ここで提供される違いは、LLMがローカルで、およびGPT4AllのWebサイトからインストールされるデフォルトモデルではなく、ユーザーの選択のモデルを保証することです。これにより、LLMはインターネット接続を必要とせずに純粋にローカルで実行できます。注ユーザーには、GPT4all.pyファイルに2つの入力が必要です(使用するLLMのファイルの場所とファイル自体の名前)
- これは、ユーザーが選択した「xx.bin」のLLMをダウンロードし(多くのオンラインを簡単に見つけることができる)、ファイルの場所とその名前をgpt4all.pyファイルとmain.pyに挿入する必要があることを意味します。
- ユーザーは、使用するためのOpenAI APIキーも必要です
ロードマップ