Básico-qdrant-supload-and-search-exposición
Código de ejemplo sobre cómo cargar y buscar una base de datos Qdrant Vector
Si encuentra que este código es útil, considere revisar mi proyecto de asistente de IA principal: https://github.com/libraryofcelsus/aetherius_ai_assistant
Si desea más tutoriales de código como este, sígueme en Github y YouTube: https://www.youtube.com/@libraryofcelsus
(El canal aún no se ha lanzado, tengo múltiples scripts como este escritos, pero todavía estoy trabajando en un formato de producción de video. ¡Suscríbete para su lanzamiento!)
Tutoriales de código en De-Depth en un formato de documentación disponible en: https://www.libraryofcelsus.com/research/public/code-tutorials/
Instalación de la ventana
- Si se usa Qdrant Cloud, copie su clave API y URL a los archivos .txt correspondientes.
Qdrant Cloud Link: https://qdrant.to/cloud
Para usar un servidor Qdrant local, primero instale Docker: https://www.docker.com/, luego consulte: https://github.com/qdrant/qdrant/blob/master/quick_start.md
Una vez que el servidor Qdrant local se está ejecutando, el script debe detectar automáticamente. - Instalar git
- Instale Python 3.10.6, asegúrese de agregarlo a la ruta
- Programa Open Git Bash
- Ejecutar Git Clone: Git Clone https://github.com/libraryofcelsus/basic-qdrant-upload-and-search-example
- Abra la línea de comando como administrador y navegue a la carpeta de instalación del proyecto con CD
- Crear un entorno virtual: Python -M Venv Venv
- Active el entorno virtual con :. venv scripts activar
- Instale los requisitos con los requisitos de PIP Install -R.txt
- Editar y establecer su nombre de usuario y nombre de chatbot en los archivos .txt
- Editar y establecer su aviso principal y saludo en los archivos .txt
- Para Oobabooga: instale el oobabooga web-ui. Esto se puede hacer con un instalador de un solo clic que se encuentra en su página de GitHub: https://github.com/oobabooga/text-generation-webui. Luego, inicie la Web-UI y navegue a la pestaña Sesiones, haga clic en ambos cuadros API y luego haga clic en Aplicar y reiniciar. Ahora navegue a la pestaña Modelos e ingrese: "TheBloke/LLAMA-2-7B-CHAT-GPTQ" o "TheBloke/LLAMA-2-13B-CHAT-GPTQ". (Si se usa CPU, use la versión GMML) Una vez que se descarga el modelo, cambie el cargador del modelo a Exllama y establezca el parámetro GPU-Split en .5GB bajo el límite de su GPU. A continuación, establezca el max_seq_len en 4096.
- Para OpenAI: agregue su tecla API OpenAI a Key_openai.txt
- Ejecute el chatbot con python script_name.py
*Nota, deberá ejecutar.
Mi investigación de IA se autofinanciada, considere apoyarme si lo encuentra útil :)
Contacto
Discord: LibraryOfCelsus -> Estilo de nombre de usuario antiguo: Celsus#0262
Mega Chat: https://mega.nz/c!pmnmeizq
Correo electrónico: [email protected]