Basic-qdrant-upload and-search-exemple
Exemple de code sur la façon de télécharger et de rechercher une base de données vectorielle QDrant
Si vous trouvez ce code utile, envisagez de consulter mon principal projet d'assistant AI: https://github.com/libraryofcelsus/aetherius_ai_assistant
Si vous voulez plus de tutoriels de code comme celui-ci, suivez-moi sur github et youtube: https://www.youtube.com/@libraryofcelsus
(Channel n'est pas encore lancé, j'ai plusieurs scripts comme celui-ci écrit, mais je travaille toujours sur un format de production vidéo. Abonnez-vous pour son lancement!)
Tutoriels de code en profondeur dans un format de documentation disponible sur: https://www.libraryofcelsus.com/research/public/code-tutorials/
Installation de la fenêtre
- Si vous utilisez Cloud QDrant, copiez leur clé API et leur URL dans les fichiers .txt correspondants.
Lien cloud qdrant: https://qdrant.to/cloud
Pour utiliser un serveur Qdrant local, installez d'abord Docker: https://www.docker.com/, puis voyez: https://github.com/qdrant/qdrant/blob/master/quick_start.md
Une fois le serveur QDrant local en cours d'exécution, il doit être détecté automatiquement par le script. - Installer Git
- Installez Python 3.10.6, assurez-vous de l'ajouter au chemin
- Programme Open Git Bash
- Exécuter Git Clone: Git Clone https://github.com/libraryofcelsus/basic-qdrant-upload-and-search-example
- Ouvrez la ligne de commande en tant qu'administrateur et accédez au dossier d'installation du projet avec CD
- Créer un environnement virtuel: Python -M Venv Venv
- Activer l'environnement virtuel avec :. Venv scripts activer
- Installez les exigences avec PIP Installer -r exigences.txt
- Modifier et définir votre nom d'utilisateur et votre nom de chat dans les fichiers .txt
- Modifier et définir votre invite principale et saluer dans les fichiers .txt
- Pour Oobabooga: installez le Oobabooga Web-UI. Cela peut être fait avec un installateur en un clic trouvé sur leur page GitHub: https://github.com/oobabooga/text-generation-webui. Ensuite, lancez le Web-UI et accédez à l'onglet Sessions, cliquez sur les deux cases API, puis cliquez sur Appliquer et redémarrer. Accédez maintenant à l'onglet Modèles et entrez: "Thebloke / Llama-2-7b-chat-GPTQ" ou "Thebloke / Llama-2-13b-chat-GPTQ". (Si vous utilisez CPU, utilisez la version GMML) Une fois le modèle téléchargé, modifiez le chargeur de modèle en exllama et définissez le paramètre GPU-Split à 0,5 Go sous la limite de votre GPU. Définissez ensuite le max_seq_len sur 4096.
- Pour Openai: Ajoutez votre touche API OpenAI à key_openai.txt
- Exécutez le chatbot avec python script_name.py
* Remarque, vous devrez s'exécuter. VENV SCRIPTS Activer chaque fois que vous quittez la ligne de commande pour réactiver l'environnement virtuel.
Ma recherche sur l'IA est autofinancée, envisagez de me soutenir si vous le trouvez utile :)
Contact
Discord: LibraryOfcelsus -> Old Username Style: Celsus # 0262
Méga chat: https://mega.nz/c!pmnmeizq
Courriel: [email protected]