Desarrollado Rag-Chatbot usando llameAindex
Backend ??:
Comenzar ------------------------------------------------------------- Primero, configurar el entorno:
poetry install
poetry shell
De manera predeterminada, utilizamos OperaI LLM (aunque puede personalizar, consulte App/context.py). Como resultado, debe especificar un OpenAI_API_KEY en un archivo .env en este directorio.
Ejemplo .env archivo:
OPENAI_API_KEY=<openai_api_key>
En segundo lugar, genere los incrustaciones de los documentos en el directorio ./data (si esta carpeta existe, de lo contrario, omita este paso):
python app/engine/generate.py
"Para generar integración y para obtener más información sobre el índice de búsqueda de vectores --------- consulte https://github.com/run-llama/mongodb-demo/tree/main?tab=readme-ov-file#create-a-vector-search-index
Tercero, ejecute el servidor de desarrollo:
python main.py
Luego llame al punto final de API /API /CHAT para ver el resultado:
curl --location 'localhost:8000/api/chat'
--header 'Content-Type: application/json'
--data '{ "messages": [{ "role": "user", "content": "Hello" }] }'
You can start editing the API by modifying app/api/routers/chat.py. The endpoint auto-updates as you save the file.
Abra http: // localhost: 8000/documentos con su navegador para ver la ui de swagger de la API.
La API permite a CORS para todos los orígenes simplificar el desarrollo. Puede cambiar este comportamiento estableciendo la variable de entorno de entorno en Prod:
ENVIRONMENT=prod uvicorn main:app
Obtenga más información para obtener más información sobre Llamaindex, eche un vistazo a los siguientes recursos:
Documentación de Llamaindex - Aprenda sobre llameAndex. Puede consultar el repositorio de GitHub de Llamaindex: ¡sus comentarios y contribuciones son bienvenidos!
Interfaz ??:
Comenzar ---------------------------- Primero, instale las dependencias:
npm install
En segundo lugar, ejecute el servidor de desarrollo:
npm run dev
Open http://localhost:3000 with your browser to see the result.
Puede comenzar a editar la página modificando App/Page.tsx. La página se actualiza automáticamente mientras edita el archivo.
Este proyecto utiliza Next/Font para optimizar y cargar automáticamente Inter, una fuente de Google personalizada.
Obtenga más información para obtener más información sobre Llamaindex, eche un vistazo a los siguientes recursos:
Documentación de Llamaindex: aprenda sobre llameAndex (características de Python). Documentación de LlamAindexts: aprenda sobre llameAndex (características de mecanografiado). Puede consultar el repositorio de GitHub de Llamaindexts: ¡sus comentarios y contribuciones son bienvenidos!