Une application qui utilise Streamlit pour offrir une interface conviviale pour la création d'un pipeline de chiffons. L'application permet à l'utilisateur de télécharger ses propres fies PDF, qui sont ensuite traitées et stockées dans une nouvelle base de données vectorielle (ou existante).
L'utilisateur peut ensuite interroger la base de données et recevoir la réponse la plus pertinente générée à partir d'un modèle LLM. Le LLM que nous avons choisi d'utiliser est le modèle Gemma: 2B, et pour le service de modèle, nous utilisons Olllama.
L'application offre également la possibilité de supprimer une base de données existante, bien que cette fonctionnalité soit actuellement limitée pour Windows.
Afin de faire fonctionner l'application, vous devez d'abord cloner ce référentiel. Cela peut être fait avec la commande:
git clone https://github.com/Jimlibo/custom-rag-app.gitAprès avoir cloné le référentiel, vous pouvez accéder au répertoire de l'application:
cd custom-rag-appSi Docker et Docker-Compose sont installés, vous pouvez exécuter l'application avec les commandes suivantes:
docker-compose upSi vous n'avez pas installé Docker, vous pouvez d'abord installer les packages requis à partir de Requirements.txt, puis exécuter l'application via Streamlit. Cela peut être fait avec les commandes suivantes:
cd src
pip install -r requirements.txt
streamlit run app.pyAfin d'exécuter l'inférence sur un LLM, vous devez également faire fonctionner le service Olllama. Si c'est la première fois que vous exécutez l'application, vous devez tirer le modèle Gemma: 2B du référentiel Olllama avant de le servir. Pour tirer le modèle, ouvrez un autre terminal et exécutez la commande:
ollama pull gemma:2bPour servir le modèle, exécutez:
ollama serveDistribué sous la licence du MIT. Voir la licence pour plus d'informations.