Disha - Chatbot iiit nagpur
Bienvenue dans le référentiel Disha Chatbot Github! Ce projet est une solution innovante conçue pour rationaliser l'expérience utilisateur pour naviguer sur le site Web IIIT Nagpur. Construit avec l'apprentissage automatique de pointe (ML), le traitement du langage naturel (PNL) et les modèles de langage de grands (LLM), Disha offre des réponses instantanées et conviviales à une variété de requêtes.
Caractéristiques
Interaction humaine
- Permet des conversations naturelles et intuitives.
- Fournit des réponses précises et contextuelles aux requêtes sur iiit nagpur.
Entrée vocale
- Openai - Whisper-Small-en
Traitement et structuration des données
- Extrait du texte et des images du site Web de IIIT Nagpur à l'aide de l'OCR.
- Structure les données dans un format JSON complet pour la formation.
Réponses unifiées et précises
- Combine des LLMs fins et une génération (RAG) (RAG) de la récupération pour des réponses précises.
- Les réponses sont vérifiées pour une fiabilité maximale.
Mesures d'évaluation
- Mesure la qualité de sortie à l'aide de BLEU, du rouge-L, de la similitude sémantique et des mesures de score humain.
Technologies clés
Modèles d'apprentissage automatique
- LLAMA-3.2-1B : Fonctionné avec les valeurs de rang R-8, R-16, R-32 et PHI-3.5.
- PHI-3,5-MINI
- Techniques PEFT : affinage efficace avec Lora et Qlora.
GÉNÉRATION AUGURATIVE (RAG)
- Récupère des données précises et contextuellement pertinentes à partir de bases de données externes.
- Utilise:
- Pinecone : base de données vectorielle pour la recherche et la récupération optimisées.
- Langchain : pour les pipelines de données sans couture.
- API Google Gemini : fournit des réponses précises et résumées.
Tableau de métriques d'évaluation
| Modèle | Bleu | Rouge-l | Similitude sémantique | Évaluation humaine | Paramètres formés |
|---|
| LLAMA-3.2-1B (r = 8) | 0,925700 | 0,964550 | 0.998106 | 0,934744 | 12,156 928 |
| LLAMA-3.2-1B (r = 16) | 0,925950 | 0,964757 | 0.998106 | 0.942012 | 24 313 856 |
| LLAMA-3.2-1B (r = 32) | 0,924404 | 0,963656 | 0.998096 | 0,946338 | 48 627 712 |
| Phi 3,5 mini | 0,785048 | 0,886750 | 0.998205 | 0,852504 | 29 884 416 |
| CHIFFON | 0,964902 | 0.996087 | 0.995800 | 0,967379 | 0 |
Modèles formés
- LLAMA-3.2-1B R = 8 Lien
- LLAMA-3.2-1B r = 16 lien
- LLAMA-3.2-1B R = 32 Lien
- Lien phi-3,5-moins
Interface Web - Face étreinte
Aperçu de l'architecture
Intelligence unifiée
- Intègre le chiffon et les LLMs réglés pour des performances robustes.
Conservation de contexte
- S'assure que tous les détails critiques sont inclus dans les réponses.
Flux naturel
- Fournit des interactions conversationnelles conviviales et conviviales.
Plans futurs
- Développez le soutien linguistique au-delà de l'hindi et de l'anglais.
- Améliorez l'évolutivité des ensembles de données plus grands et des requêtes plus complexes.
- Intégrez des mesures d'évaluation supplémentaires pour améliorer la précision.
N'hésitez pas à se nourrir, à contribuer et à améliorer Disha pour des applications plus larges!