Disha - Chatbot IIIT Nagpur
Willkommen im Disha Chatbot Github Repository! Dieses Projekt ist eine innovative Lösung, mit der die Benutzererfahrung für die Navigation auf der Nagpur -Website IIIT optimiert werden soll. Das mit modernste maschinelles Lernen (ML), natürliche Sprachverarbeitung (NLP) und Großsprachmodelle (LLM) erstellte Disha bietet sofortige, benutzerfreundliche Reaktionen auf eine Vielzahl von Abfragen.
Merkmale
Menschliche Interaktion
- Ermöglicht natürliche und intuitive Gespräche.
- Bietet genaue und kontextbezogene Antworten auf Abfragen zu IIIT Nagpur.
Spracheingabe
Datenverarbeitung und Strukturierung
- Extrahiert Text und Bilder von der Nagpur -Website mit OCR.
- Strukturiert Daten in ein umfassendes JSON -Format für das Training.
Einheitliche und genaue Antworten
- Kombiniert fein abgestimmte LLMs und retrieval-genehmigte Generation (LAG) für genaue Antworten.
- Die Antworten werden auf maximale Zuverlässigkeit verifiziert.
Bewertungsmetriken
- Misst die Ausgangsqualität unter Verwendung von Bleu-, Rouge-L-, Semantic-Ähnlichkeits- und menschlichen Bewertungsmetriken.
Schlüsseltechnologien
Modelle für maschinelles Lernen
- LAMA-3.2-1B : Fein mit Rangwerten R-8, R-16, R-32 und Phi-3,5.
- Phi-3,5-mini
- PEFT-Techniken : Effiziente Feinabstimmung mit Lora und Qlora.
REMAINAL-AUGENTED-Generation (LAG)
- Ruft genaue, kontextbezogene Daten aus externen Datenbanken ab.
- Verwendet:
- Pnecone : Vektordatenbank für optimierte Suche und Abrufen.
- Langchain : Für nahtlose Datenpipelines.
- Google Gemini API : Bietet genaue, zusammengefasste Antworten.
Bewertungsmetriken Tabelle
| Modell | Bleu | Rouge-l | Semantische Ähnlichkeit | Menschliche Bewertung | Geschulte Parameter |
|---|
| Lama-3,2-1b (r = 8) | 0,925700 | 0,964550 | 0,998106 | 0,934744 | 12,156,928 |
| Lama-3,2-1b (r = 16) | 0,925950 | 0,964757 | 0,998106 | 0,942012 | 24.313.856 |
| Lama-3,2-1b (r = 32) | 0,924404 | 0,963656 | 0,998096 | 0,946338 | 48.627.712 |
| PHI 3.5 Mini | 0,785048 | 0,886750 | 0,998205 | 0,852504 | 29.884.416 |
| LAPPEN | 0,964902 | 0,996087 | 0,995800 | 0,967379 | 0 |
Geschulte Modelle
- Lama-3.2-1b R = 8 Link
- LAMA-3.2-1B R = 16 Link
- LAMA-3.2-1B R = 32 LINK
- Phi-3,5-Mini-Link
Webschnittstelle - umarmtes Gesicht
Architekturübersicht
Einheitliche Intelligenz
- Integriert Lappen und fein abgestimmte LLMs für eine robuste Leistung.
Kontext Erhaltung
- Stellt sicher, dass alle kritischen Details in Antworten enthalten sind.
Natürlicher Fluss
- Liefert benutzerfreundliche, gesprächige Interaktionen.
Zukünftige Pläne
- Erweitern Sie die Sprachunterstützung jenseits von Hindi und Englisch.
- Verbesserung der Skalierbarkeit für größere Datensätze und komplexere Abfragen.
- Integrieren Sie zusätzliche Bewertungsmetriken, um die Genauigkeit zu verbessern.
Fühlen Sie sich frei, die Disha für umfassendere Anwendungen zu geben, beizutragen und zu verbessern!