Une technique de chiffon IA Chatbot implémentant avec un modèle de grande langue Meta-Llama2-7b, ainsi que des bases de données vectorielles de Langchain et Pinecone. Ressource utilisée: L'encyclopédie de la médecine
Pinecone Vector DB stocke les intégres text_chunks générés à partir du livre PDF. Langchain est utilisé pour construire le LLMCHAIN avec PromptTemplate pour effectuer la recherche de similitude à partir de Pinecone, puis grain fine la sortie avec LLM.
Pour exécuter l'application Web localement, suivez ces étapes:
1. Clone le repo :
git clone https://github.com/4darsh-Dev/medicure-rag-chatbot.git Configurer la poésie :
pip install poetry
poetry init
poetry shell
Installation des exigences :
poetry install
Exécutez l'application Streamlit :
poetry streamlit run app.py Accédez à votre application : Après l'exécution de la commande, Streamlit lancera un serveur Web local et fournira une URL où vous pouvez accéder à votre application. En règle générale, ce sera quelque chose comme http://localhost:8501 . Ouvrez cette URL dans votre navigateur Web.
Arrêtez le serveur de rationalisation : pour arrêter le serveur de rationalisation, revenez à l'invite de terminal ou de commande où il s'exécute et appuyez sur Ctrl + C pour terminer le serveur.
Si vous avez des commentaires, veuillez nous contacter à [email protected]