Basic-qdrant-upload-and-search-example
Пример кода о том, как загрузить и поиск базы данных Qdrant Vector
Если вы найдете этот код полезным, рассмотрите возможность проверки моего основного проекта AI Assistant: https://github.com/libraryofcelsus/aethius_ai_assistant
Если вы хотите больше учебных пособий, подобных этому, следуйте за мной на GitHub и YouTube: https://www.youtube.com/@libraryofcelsus
(Канал еще не запущен, у меня есть несколько сценариев, подобных этой, но я все еще работаю над форматом производства видео. Подпишитесь на его запуск!)
Учебные учебники по коду в формате документации, доступный по адресу: https://www.libraryofcelsus.com/research/public/code-tutorials/
Установка окна
- При использовании Qdrant Cloud копируйте их клавишу API и URL -адрес в соответствующие файлы .txt.
Qdrant Cloud Link: https://qdrant.to/cloud
Чтобы использовать локальный сервер Qdrant, сначала установите Docker: https://www.docker.com/, затем см.
После того, как локальный сервер Qdrant работает, он должен быть обнаружен сценарием автоматическим. - Установить git
- Установите Python 3.10.6, убедитесь, что вы добавили его в путь
- Open Git Bash Program
- Запустите Git Clone: Git Clone https://github.com/libraryofcelsus/basic-qdrant-upload-and-search-example
- Откройте командную строку в качестве администратора и перейдите в папку Project Install с CD
- Создать виртуальную среду: python -m venv venv
- Активировать виртуальную среду с помощью :. venv scripts activeate
- Установите требования с помощью установки PIP -R.
- Редактировать и установить имя имени пользователя и чат -бота в файлах .txt
- Редактировать и установить свою основную подсказку и приветствие в файлах .txt
- Для Oobabooga: установите oobabooga web-ui. Это можно сделать с помощью установщика с одним щелчком, найденным на их странице GitHub: https://github.com/oobabooga/text-generation-webui. Затем запустите Web-UI и перейдите на вкладку «Сессии», нажмите оба поля API, а затем нажмите «Применить» и перезапустить. Теперь перейдите на вкладку «Модели» и введите: «TheBloke/Llama-2-7B-Chat-Gptq» или «TheBloke/Llama-2-13B-Chat-Gptq». (При использовании CPU используйте версию GMML) После загрузки модели измените загрузчик модели на Exllama и установите параметр GPU-SPLIT на .5GB под пределом вашего GPU. Затем установите MAX_SEQ_LEN на 4096.
- Для OpenAI: добавьте свой ключ API OpenAI в key_openai.txt
- Запустите чат с помощью python script_name.py
*Примечание, вам нужно будет запустить. Venv Scripts Activate каждый раз, когда вы выходите из командной строки, чтобы реактивировать виртуальную среду.
Мое исследование искусственного интеллекта самофинансируется, рассмотрите возможность поддержать меня, если вы найдете это полезным :)
Контакт
Discord: LibraryOfcelsus -> Старый Имя пользователя Стиль: Цельс#0262
Мега чат: https://mega.nz/c!pmnmeizq
Электронная почта: [email protected]