今週は AI の分野で多くの良いニュースがありました。Google と Meta はそれぞれ、Google Gemini モデルのパフォーマンスが大幅に向上し、コストが削減されました。目を引く。同時に、Google DeepMind の AlphaChip プロジェクトも画期的な進歩を遂げ、チップ設計効率が加速され、関連モデルがオープンソース化され、業界の発展に強力な推進力を注入しました。そんなエキサイティングなAI開発について、Downcodes編集者が詳しく解説します。
AI 業界はここ 1 週間で非常に忙しくなり、Google と Meta の両社が新しいバージョンの AI モデルを発表し、大きな注目を集めています。まず、Google は火曜日に Gemini シリーズの新しいアップデートを発表し、2 つの新しい量産対応モデル、Gemini-1.5-Pro-002 と Gemini-1.5-Flash-002 を発売しました。

このアップデートにより、特に数学、長いコンテキスト処理、ビジョンタスクにおいて、モデルの全体的な品質が大幅に向上しました。 Google は、MMLU-Pro ベンチマーク テストでパフォーマンスが 7% 向上し、数学関連タスクのパフォーマンスが 20% 向上したと主張しています。 AI に関心がある場合は、ベンチマークの重要性が限定的であることを知っておく必要がありますが、それでもこのデータは非常に興味深いものです。
モデルのパフォーマンスの向上に加えて、Google は Gemini1.5Pro の使用コストも大幅に削減し、入力トークン料金と出力トークン料金がそれぞれ 64% と 52% 減少しました。この動きにより、開発者は Gemini を使用する方がコスト効率が高くなります。
また、アップデート後、Gemini-1.5FlashとProのリクエスト処理速度も向上し、前者は1分あたり2,000リクエスト、後者は1分あたり1,000リクエストをサポートできるようになりました。このような改善により、開発者がアプリケーションをより簡単に構築できるようになるのは間違いありません。

水曜日、Meta は手を休めておらず、オープンウェイト AI モデルのメジャーアップデートである Llama3.2 をリリースしました。このアップデートには、パラメーター サイズが 11 億から 90 億の範囲に及ぶビジュアル機能を備えた大規模な言語モデルが含まれており、モバイル デバイス向けに設計された 1 億および 3 億のパラメーターを備えた軽量のテキスト モデルもリリースされています。
メタ社は、これらの視覚モデルは、画像認識と視覚理解において市場をリードするクローズドソース モデルに匹敵すると主張しています。さらに、一部の AI 研究者は新しいモデルをテストし、その結果、これらの小さなモデルが多くのテキスト タスクで良好に動作することが示されました。

次に、木曜日、Google DeepMind は主要プロジェクト、AlphaChip を正式に発表しました。このプロジェクトは2020年の研究に基づいており、強化学習を通じてチップレイアウトを設計することを目的としているが、AlphaChipは過去3世代のテンソルプロセッシングユニット(TPU)で高品質のチップレイアウトを生成する際に「超人的なチップレイアウト」の速度を達成できるとしている。人間の場合は数週間、場合によっては数か月から数時間に短縮されます。
さらに注目に値するのは、Google も AlphaChip の事前トレーニング済みモデルを GitHub で一般公開しており、他のチップ設計会社もこのテクノロジーを使用できるようにしており、MediaTek などの企業でも採用し始めていることです。
ハイライト:
** Google は Gemini モデルの新バージョンをリリースし、全体的なパフォーマンスを向上させ、価格を大幅に削減しました。 **
**Meta は、視覚機能をサポートし、優れたパフォーマンスを発揮する小規模な言語モデルである Llama3.2 を発表します。 **
** Google の AlphaChip はチップ設計を加速し、設計効率を大幅に向上させ、テクノロジーを共有します。 **
全体として、AI 分野における今週のイノベーションは刺激的であり、これらの技術進歩はより多くの分野での人工知能の応用を促進するものであり、引き続き注目に値します。 Downcodes の編集者は、今後も最先端のテクノロジー情報をお届けしていきます。