Die LibraryScript LLM -Bewertungsbibliothek
Evalkit ist eine Open-Source-Bibliothek, mit der Typenkriptentwickler die Leistung von großsprachigen Modellen (LLMs) mit Vertrauen bewerten und verbessern können. Stellen Sie sicher, dass Ihre KI -Modelle zuverlässig, genau und vertrauenswürdig sind.
Klicken Sie hier, um zur offiziellen Evalkit -Dokumentation zu navigieren
In der Dokumentation finden Sie Informationen zur Verwendung von Evalkit, seiner Architektur, einschließlich Tutorials und Rezepten für verschiedene Anwendungsfälle und LLM -Anbieter.
| Besonderheit | Verfügbarkeit | Dokumente |
|---|---|---|
| Bias -Erkennungsmetrik | ✅ | ? |
| Kohärenzmetrik | ✅ | ? |
| Dynamische Metrik (G-Eval) | ✅ | ? |
| Treue metrisch | ✅ | ? |
| Halluzinationsmetrik | ✅ | ? |
| Absichtserkennungsmetrik | ✅ | ? |
| Semantische Ähnlichkeitsmetrik | ✅ | ? |
| Semantische Ähnlichkeitsmetrik | ✅ | ? |
| Berichterstattung | ? | ? |
Suchen Sie nach einer Metrik/Funktion, die hier nicht aufgeführt ist? Öffnen Sie ein Problem und lassen Sie es uns wissen!
Evalkit exportiert derzeit ein Kernpaket, das alle bewertungsbezogenen Funktionen enthält. Installieren Sie das Paket, indem Sie den folgenden Befehl ausführen:
npm install --save-dev @evalkit/coreWir begrüßen Beiträge aus der Community! Bitte zögern Sie nicht, Pull -Anfragen zu senden oder Probleme für Fehler oder Feature -Vorschläge zu erstellen.
Der Quellcode dieses Repositorys ist unter der Apache 2.0 -Lizenz verfügbar.