BASIC-QDRANT-UPLOAD e Search-Exemplo
Exemplo de código sobre como fazer upload e pesquisar um banco de dados de vetor QDRANT
Se você achar esse código útil, considere conferir meu principal projeto de assistente de IA: https://github.com/libraryofcelsus/aterius_ai_assistant
Se você deseja mais tutoriais de código como este, siga -me no github e no youtube: https://www.youtube.com/@libraryofcelsus
(O canal ainda não foi lançado, tenho vários scripts como este escrito, mas ainda estou trabalhando em um formato de produção de vídeo. Inscreva -se para o seu lançamento!)
Tutoriais de código profundo em um formato de documentação disponível em: https://www.libraryofcelsus.com/research/public/code-tutorials/
Instalação da janela
- Se estiver usando o QDRANT Cloud copiar sua chave API e URL para os arquivos .txt correspondentes.
Link para nuvem QDRANT: https://qdrant.to/cloud
Para usar um servidor QDrant local, primeiro instale o docker: https://www.docker.com/, então consulte: https://github.com/qdrant/qdrant/blob/master/quick_start.md
Depois que o servidor QDrant local estiver em execução, ele deve ser detectado automaticamente pelo script. - Instale o git
- Instale o Python 3.10.6, adicione -o ao caminho
- Programa Open Git Bash
- Run Git Clone: Git Clone https://github.com/libraryofcelsus/basic-qdrant-upload-and-search-example
- Abra a linha de comando como administrador e navegue até a pasta de instalação do projeto com CD
- Crie um ambiente virtual: Python -M Venv Venv
- Ative o ambiente virtual com:. Venv scripts ativar
- Instale os requisitos com o PIP Install -r requisitos.txt
- Edite e defina seu nome de usuário e chatbot nos arquivos .txt
- Edite e defina seu prompt principal e saudação nos arquivos .txt
- Para Oobabooga: Instale o Oobabooga Web-UI. Isso pode ser feito com um instalador de um clique encontrado em sua página do github: https://github.com/oobabooga/text-generação-webui. Em seguida, inicie a Web-UI e navegue até a guia Sessões, clique em ambas as caixas de API e clique em Aplicar e reiniciar. Agora navegue até a guia Modelos e digite: "TheBloke/LLAMA-2-7B-CHAT-GPTQ" ou "TheBloke/LLAMA-2-13B-ChAT-GPTQ". (Se estiver usando a CPU, use a versão GMML) Depois que o modelo for baixado, altere o carregador do modelo para exllama e defina o parâmetro GPU-split como 0,5gb no limite da sua GPU. Em seguida, defina o max_seq_len como 4096.
- Para o OpenAI: adicione sua chave da API OpenAI para key_openai.txt
- Execute o chatbot com python script_name.py
*Observe que você precisará ser executado. Venv scripts ativar toda vez que você sair da linha de comando para reativar o ambiente virtual.
Minha pesquisa de IA é autofinanciada, considere me apoiar se você achar útil :)
Contato
Discord: Libraryofcelsus -> Estilo de nome de usuário antigo: Celsus#0262
Mega Chat: https://mega.nz/c!pmnmeizq
E -mail: [email protected]