AI21LABS hat kürzlich sein neuestes großes Sprachmodell der Jamba 1.6 -Serie veröffentlicht, das als das leistungsstärkste und effizienteste Long -Textverarbeitungsmodell auf dem Markt bekannt ist. Im Vergleich zum traditionellen Transformatormodell weist das Jamba -Modell im Umgang mit langen Kontexten eine höhere Geschwindigkeit und Qualität auf, und seine Inferenzgeschwindigkeit ist 2,5 -mal schneller als ähnliche Modelle, was einen neuen technologischen Durchbruch markiert.
Die Jamba 1.6-Serie umfasst Jamba Mini (1,2 Milliarden Parameter) und Jamba Large (9,4 Milliarden Parameter) und ist für kommerzielle Anwendungen mit Funktionsaufrufen, strukturierten Ausgängen (wie JSON) und Reality-basierten Erzeugungsfunktionen optimiert. Diese Modelle verfügen über eine breite Palette von Anwendungen, die von intelligenten Assistenten auf Unternehmensebene bis hin zur akademischen Forschung reichen und eine wichtige Rolle spielen können.
Dieses Modell nimmt eine Open -Source -Lizenzvereinbarung namens Jamba Open Model Lizenz an, mit der Benutzer unter der Prämisse der folgenden relevanten Bedingungen Forschung und kommerzielle Nutzung durchführen können. Darüber hinaus hat die Jamba1.6 -Serie eine Wissensfrist vom 5. März 2024 und unterstützt mehrere Sprachen, darunter Englisch, Spanisch, Französisch, Portugiesisch, Italienisch, Niederländisch, Deutsch, Arabisch und Hebräisch, um sicherzustellen, dass sie sich den Bedürfnissen der Benutzer auf der ganzen Welt anpasst.
In Bezug auf die Leistungsbewertung zeigte Jamba Large 1.6 in mehreren Benchmarks gut. In Standardtests wie Arena Hard, Crag und FinanceBench übertrafen ihre Ergebnisse ihre Konkurrenten und zeigten ihr herausragendes Sprachverständnis und ihre Erzeugungsfähigkeiten. Das Jamba -Modell ist im Umgang mit langen Texten besonders herausragend.
Um eine effiziente Inferenz zu gewährleisten, müssen Benutzer, die JAMBA -Modelle verwenden, die relevanten Python -Bibliotheken zuerst installieren, und CUDA -Geräte sind erforderlich, um den Betrieb des Modells zu unterstützen. Benutzer können das Modell über das Framework von VLLM oder Transformers ausführen. Mit der Unterstützung von GPUs in großem Maßstab kann Jamba Large 1.6 Kontexte mit bis zu 256 km verarbeiten, was in früheren Modellen nicht möglich war.
Modell: https://huggingface.co/ai21labs/ai21-jamba-large-1.6
Schlüsselpunkte:
Das Modell von Jamba1.6 ist für eine lange Textverarbeitung schneller und mehr Qualität und unterstützt mehrere Sprachen.
Die Open -Source -Lizenzvereinbarung ermöglicht die Forschung und die kommerzielle Nutzung und erleichtert die Austausch von Technologien.
Übertriffte konkurrierende Produkte in mehreren Benchmarks.