BASIC-QDRANT-UPLOAD-AND-SEACH-EXAMPLE
QDRANTベクターデータベースをアップロードおよび検索する方法に関するコードの例
このコードが便利だと思う場合は、メインのAIアシスタントプロジェクトをチェックすることを検討してください:https://github.com/libraryofcelsus/aetherius_aisistant
このようなコードチュートリアルが必要な場合は、githubとYouTubeで私にフォローしてください:https://www.youtube.com/@libraryofcelsus
(チャンネルはまだ起動されていません。このような複数のスクリプトが書かれていますが、まだビデオ制作形式に取り組んでいます。発売を購読しています!)
詳細なコードチュートリアルhttps://www.libraryofcelsus.com/research/public/code-tutorials/で利用可能なドキュメント形式の形式
ウィンドウのインストール
- QDRANTクラウドを使用してAPIキーとURLを対応する.txtファイルにコピーします。
QDRANTクラウドリンク:https://qdrant.to/cloud
ローカルQDRANTサーバーを使用するには、最初にDocker:https://www.docker.com/をインストールするには、https://github.com/qdrant/qdrant/blob/master/quick_start.mdを参照してください。
ローカルQDRANTサーバーが実行されたら、スクリプトで自動検出する必要があります。 - gitをインストールします
- Python 3.10.6をインストールし、パスに追加してください
- Git Bashプログラムを開きます
- Gitクローンを実行: Gitクローンhttps://github.com/libraryofcelsus/basic-qdrant-upload-and-search-example
- 管理者としてコマンドラインを開き、 CDを使用してプロジェクトインストールフォルダーに移動します
- 仮想環境を作成:Python -M Venv Venv
- 以下を使用して仮想環境をアクティブにします。 venv scripts activate
- PIPインストール-R要件を使用して要件をインストールします
- .txtファイルでユーザー名とチャットボット名を編集して設定します
- .txtファイルでメインプロンプトと挨拶を編集して設定します
- Oobaboogaの場合: Oobabooga web-uiをインストールします。これは、githubページ(https://github.com/oobabooga/text-generation-webui)にあるワンクリックインストーラーで実行できます。次に、Web-UIを起動し、[セッション]タブに移動し、両方のAPIボックスをクリックして、[適用]をクリックして再起動します。 [モデル]タブに移動して、「thebloke/llama-2-7b-chat-gptq」または「thebloke/llama-2-13b-chat-gptq」を入力します。 (CPUを使用してGMMLバージョンを使用する場合)モデルがダウンロードされたら、モデルローダーをExllamaに変更し、GPUの制限の下でGPU-SPLITパラメーターを.5GBに設定します。次に、max_seq_lenを4096に設定します。
- Openaiの場合: Openai APIキーをkey_openai.txtに追加します
- python script_name.pyでチャットボットを実行します
*注意してください。 venv scripts を実行する必要があります。コマンドラインを終了するたびにアクティブ化して、仮想環境を再アクティブ化します。
私のAIの研究は自己資金です。あなたがそれが役立つと思うなら私をサポートすることを検討してください:)
接触
Discord:Libraryofcelsus->古いユーザー名スタイル:Celsus#0262
Mega Chat:https://mega.nz/c!pmnmeizq
電子メール:[email protected]