Desenvolvido Rag-Chatbot usando Llamaindex
Back -end ??:
Introdução --------------------------------------------------------- Primeiro, Configure o ambiente:
poetry install
poetry shell
Por padrão, usamos o Openai LLM (embora você possa personalizar, consulte o app/context.py). Como resultado, você precisa especificar um OpenAI_API_KEY em um arquivo .env neste diretório.
Exemplo .env arquivo:
OPENAI_API_KEY=<openai_api_key>
Segundo, gerar as incorporações dos documentos no diretório ./datos (se essa pasta existir - caso contrário, pule esta etapa):
python app/engine/generate.py
"Para incorporar o Gernate e para obter mais informações sobre o índice de pesquisa de vetores ---------, consulte https://github.com/run-llama/mongodb-demo/tree/main?tab=readme-ov-file#create-bector-search-index
Terceiro, execute o servidor de desenvolvimento:
python main.py
Em seguida, ligue para o endpoint /API /API /bate -papo para ver o resultado:
curl --location 'localhost:8000/api/chat'
--header 'Content-Type: application/json'
--data '{ "messages": [{ "role": "user", "content": "Hello" }] }'
You can start editing the API by modifying app/api/routers/chat.py. The endpoint auto-updates as you save the file.
Aberto http: // localhost: 8000/docs com seu navegador para ver a interface do usuário da API.
A API permite que o CORS para todas as origens simplificar o desenvolvimento. Você pode alterar esse comportamento definindo a variável de ambiente do ambiente para produzir:
ENVIRONMENT=prod uvicorn main:app
Saiba mais para saber mais sobre o Llamaindex, dê uma olhada nos seguintes recursos:
Documentação de Llamaindex - Aprenda sobre Llamaindex. Você pode conferir o repositório Llamaindex Github - seus comentários e contribuições são bem -vindos!
Front-end ??:
Introdução ---------------------------- Primeiro, instale as dependências:
npm install
Segundo, execute o servidor de desenvolvimento:
npm run dev
Open http://localhost:3000 with your browser to see the result.
Você pode começar a editar a página modificando o aplicativo/página.tsx. A página de atualização automática ao editar o arquivo.
Este projeto usa o Next/Fonte para otimizar e carregar automaticamente inter, uma fonte do Google personalizada.
Saiba mais para saber mais sobre o Llamaindex, dê uma olhada nos seguintes recursos:
Documentação do Llamaindex - Aprenda sobre o Llamaindex (Python Feature). Documentação do LlamaindExts - Aprenda sobre o Llamaindex (TypeScript Features). Você pode conferir o repositório do Github LlamaiDexts - seus comentários e contribuições são bem -vindos!