IBMは最近、最新のGranite3.2大規模な言語モデルをリリースしました。これは、企業やオープンソースコミュニティに「小規模で効率的かつ実用的な」エンタープライズAIソリューションを提供するように設計されています。このモデルは、マルチモーダルと推論機能を備えているだけでなく、柔軟性と費用対効果を向上させるため、ユーザーが採用しやすくなります。 Granite3.2のリリースは、特にエンタープライズレベルのアプリケーションの実用性と効率性において、IBMの人工知能分野での新しいブレークスルーをマークします。
Granite3.2は、ドキュメントを処理するための視覚言語モデル(VLM)を導入し、データ分類と抽出を実行します。 IBMは、この新しいモデルには、llama3.211bやpixtral12bなど、いくつかのキーベンチマークでパフォーマンスに到達またはそれを超えていると主張しています。さらに、Granite3.2の8Bモデルは、標準的な数学的推論ベンチマークで大きなモデルを一致または上回る能力も示しました。このブレークスルーにより、リソースの消費を削減しながら複雑なタスクを処理する際に、Granite 3.2がより効率的になります。
推論能力を向上させるために、Granite3.2の一部のモデルには「Think Chain」関数もあり、中間推論の手順を明確にすることができます。この機能には多くのコンピューティングパワーが必要ですが、ユーザーは必要に応じていつでも効率を最適化し、全体的なコストを削減するためにいつでも有効または無効にできます。 IBM AIの研究担当副社長であるSriram Raghavanは、記者会見で、次世代の人工知能の焦点は効率、統合、実用的な影響にあると述べ、企業が過剰支出なしで強力な結果を達成できると述べました。この機能を導入すると、Granite 3.2が複雑な推論タスクを扱う際に、より透明で解釈可能になります。
推論能力の改善に加えて、Granite3.2は「Granite Guardian」セキュリティモデルの小型バージョンも発売しました。体積は30%減少しますが、そのパフォーマンスは前世代モデルのレベルにとどまります。さらに、IBMは、リスクのより詳細な評価を可能にし、セキュリティモニタリングの不確実性を考慮する「口頭信頼」と呼ばれる能力を導入しました。この革新により、Granite3.2はセキュリティの面でより信頼性を高め、リソースの使用を削減します。
Granite3.2は、IBMのオープンソースDocling Toolkitでトレーニングされています。これにより、開発者はドキュメントをカスタマイズされたエンタープライズAIモデルに必要な特定のデータに変換できます。モデルトレーニングプロセス中に、8,500万個のPDFファイルと2600万個の合成Q&Aペアが処理され、複雑なドキュメントワークフローを処理するVLMの能力が向上しました。このトレーニングプロセスにより、大量のドキュメントを処理する際に、Granite3.2がより効率的かつ正確になります。
IBMはまた、最大2年までの長期予測機能を備えた多変数時系列予測に焦点を当てたコンパクトな事前訓練モデルである次世代のTinyTimemixers(TTM)モデルを発表しました。このモデルの発売は、時系列分析の分野でのIBMのアプリケーション範囲をさらに拡大し、より正確な予測ツールを企業に提供します。
公式ブログ:https://www.ibm.com/new/announcements/ibm-granite-3-2-open-source-raisoning and-vision
キーポイント:
Granite3.2は、ドキュメントの処理とデータ抽出機能を改善するための視覚言語モデルを導入します。
新しいモデルには、推論プロセスを明確にし、推論能力を向上させることができる思考チェーンの機能があります。
Granit Guardianのセキュリティモデルは30%の小型化されていますが、そのパフォーマンスは影響を受けません。また、自信を表現できるリスク評価機能も導入します。