AI21Labsは最近、市場で最も強力で効率的な長いテキスト処理モデルとして知られている最新のJamba 1.6シリーズ大手言語モデルをリリースしました。従来の変圧器モデルと比較して、Jambaモデルは長いコンテキストを扱うときに高速と品質を示し、その推論速度は同様のモデルの2.5倍高速で、新しい技術的ブレークスルーをマークします。
Jamba 1.6シリーズには、Jamba Mini(12億パラメーター)とJamba Large(94億パラメーター)が含まれており、機能呼び出し、構造化された出力(JSONなど)、現実ベースの生成機能を備えた商用アプリケーション向けに最適化されています。これらのモデルには、エンタープライズレベルのインテリジェントアシスタントから学術研究に至るまで、幅広いアプリケーションがあり、重要な役割を果たすことができます。
このモデルは、Jamba Open Modelライセンスと呼ばれるオープンソースライセンス契約を採用し、ユーザーが関連する条件に従うという前提の下で研究と商業用途を実施できるようにします。さらに、Jamba1.6シリーズは2024年3月5日の知識の締め切りを遂げ、英語、スペイン語、フランス語、ポルトガル語、イタリア語、オランダ語、ドイツ語、ヘブライ語などの複数の言語をサポートし、世界中のユーザーのニーズに適応することを保証します。
パフォーマンス評価に関しては、Jamba Large 1.6は複数のベンチマークでうまく機能しました。 Arena Hard、Crag、FinanceBenchなどの標準的なテストでは、スコアが競合他社を上回り、優れた言語の理解と生成能力を示しています。 Jambaモデルは、長いテキストを扱う上で特に顕著です。
効率的な推論を確保するには、JAMBAモデルを使用するユーザーが関連するPythonライブラリを最初にインストールする必要があり、CUDAデバイスはモデルの動作をサポートする必要があります。ユーザーは、VLLMまたはトランスフォーマーフレームワークを介してモデルを実行できます。大規模なGPUのサポートにより、Jamba Large 1.6は最大256kのコンテキストを処理できますが、これは以前のモデルでは不可能でした。
モデル:https://huggingface.co/ai21labs/ai21-jamba-large-1.6
キーポイント:
Jamba1.6モデルは、長いテキスト処理に対してより高速で品質が高く、複数の言語をサポートしています。
オープンソースライセンス契約により、研究と商業用途が可能になり、テクノロジーの共有が促進されます。
複数のベンチマークで競合製品を上回る。