Ce projet démontre la création d'une application de questions-réponses de génération augmentée (RAG) de récupération avancée avancée utilisant Langchain. En intégrant plusieurs sources de données - Wikipedia, un site Web personnalisé et une base de données de documents de recherche (RIVE) - cette application fournit des réponses complètes en sélectionnant dynamiquement la source de données la plus pertinente pour chaque requête.
create_openai_tool_agent .agent_executor pour récupérer des informations et fournir des réponses complètes. git clone https://github.com/your-repo/advanced-rag-qa-app.git
cd advanced-rag-qa-appUtilisation Exécuter l'application: Streamlit Run App.py
Interagissez avec l'application : ouvrez l'URL fournie dans votre navigateur pour commencer à interroger l'application RAG Q&A.
Structure du projet
app.py: script principal pour exécuter l'application Streamlit.
config.py: paramètres de configuration et variables d'environnement.
Langchain_utils.py: fonctions utilitaires pour l'intégration de Langchain.
DATA_SOURCES /: Contient des emballages pour Wikipedia, un site Web personnalisé et Rive.
Modèles /: modèles rapides utilisés pour guider les interactions LLM.
exigences.txt: liste des dépendances Python.
Contribuant si vous souhaitez contribuer à ce projet, veuillez débarquer le référentiel et soumettre une demande de traction avec vos modifications.