今年のMobile World Congress(MWC)で、GoogleはGeminiアシスタントにリアルタイムビデオ分析とスクリーン共有機能を追加することを発表しました。このメジャーアップデートは、人工知能アシスタントの実際のインタラクティブな機能における別のブレークスルーをマークします。 Gemini AdvancedのGoogle One AIプレミアムサブスクリプションユーザーが最初に経験し、今月後半にこれらの革新的な機能を最初に使用することになります。
この更新により、Gemini Liveに2つのコア機能がもたらされます。まず、外部カメラを介してビデオコンテンツをリアルタイムで分析し、AIがユーザーの環境を「表示」して理解できるようにします。第二に、新しく追加された画面共有関数により、AIアシスタントはユーザーの電話に関する情報を直接解釈し、すぐにフィードバックを提供できます。これらの機能を追加すると、ユーザーとAI間の相互作用がより豊かで直感的になります。たとえば、ユーザーは、AIが周囲のオブジェクトを認識したり、画面コンテンツを解析したり、リアルタイムのシナリオに基づいて提案を提供したりして、AIアシスタントの実用性と相互作用を大幅に向上させることができます。

新機能は、Androidデバイスで最初に発売され、複数の言語をサポートし、世界中のユーザーにGoogleが重点を置いています。 MWCサイトでは、Googleは主要なAndroidデバイスにこれらの機能のシームレスな統合を実証し、AIアシスタントのリーダーシップをさらに強化しました。この戦略的展開は、Googleの技術的強さを実証するだけでなく、ユーザーによりスマートで便利なモバイルエクスペリエンスを提供するという決意を示しています。
この更新は、AIアシスタントの分野におけるGoogleにとって重要なステップであり、Project Astra Visionの実装における重要なステップです。 Project Astraは、Googleが開発しているユニバーサルマルチモーダルAIアシスタントであり、テキスト、ビデオ、オーディオ、その他の情報をリアルタイムで処理することを目指しており、短期メモリ機能を備えています。将来的には、AstraはGoogle Search、レンズ、マップなどのツールと深く統合され、よりインテリジェントでパーソナライズされたサービスをユーザーに提供します。この長期計画は、人工知能の分野でのGoogleの壮大なビジョンと戦略的レイアウトを示しています。
Gemini Liveの発売により、GoogleとOpenaiの間の競争は激しいステージに入りました。昨年12月以来、ChatGPTは高度な音声モードでのリアルタイムビデオとスクリーン共有をサポートしており、Googleの更新は間違いなくそれに直面して一歩前進しています。 AIの分野でのこの競争は、急速な技術の進歩を促進するだけでなく、より革新的な機能をユーザーにもたらします。ジェミニがこの新しい機能の助けを借りてAIの主要な位置をさらに統合できるかどうかは、継続的な注意に値します。テクノロジーの巨人とのこの競争は、最終的に人工知能産業全体の開発を促進し、ユーザーがよりスマートで便利なデジタルライフエクスペリエンスをもたらします。