Googleは最近、Gemini人工知能アシスタントの2つの重要な新機能、Canvas Collaborative WorkspaceとAudioの概要オーディオの概要を発表し、AIアシスタントの実用性とユーザーエクスペリエンスをさらに向上させました。
Canvas機能は、ユーザーがAIとコラボレーションしてドキュメントとコードを作成できるようにするインタラクティブなワークスペースをユーザーに提供します。この機能は、変更のリアルタイム表示をサポートし、ユーザーが統合されたチャットインターフェイスを介してコンテンツを議論および変更できるようにします。 CanvasがHTMLおよびReactコードのインスタントプレビューを生成できることは特に注目に値し、完成したドキュメントをGoogleドキュメントに直接エクスポートできます。業界のアナリストは、この機能は昨年秋にChatGPTによって発売された同じ名前機能に非常に似ていると指摘しました。
オーディオの概要機能により、ユーザーはドキュメント、プレゼンテーション、調査レポートなどの書面によるコンテンツをポッドキャストスタイルの会話に変換できます。これは、2つのAIホストによって分析および議論されます。 Googleは、更新された無料の詳細な研究機能の出力をAIオーディオポッドキャストに変換することにより、この技術を実証します。これらのオーディオサマリーは、最初はノートブックLMプラットフォームに表示されました。他のAIに生成されたコンテンツと同様に、これらのオーディオコンテンツには不正確な情報が含まれている可能性があり、ユーザーはそれを使用する際に適切な判断を維持する必要があることに注意してください。現在、オーディオの概要機能は英語のみをサポートしており、インターネットおよびモバイルプラットフォームからアクセスできます。ユーザーは、作成したオーディオファイルをダウンロードして共有できます。
Googleは、今年の初めからGeminiエコシステムを積極的に拡大しています。最近の更新には、Gemini Liveがビデオとスクリーン共有のサポートを追加し、Samsung Galaxy S24/S25およびPixel9デバイスでGoogleのアシスタントの発売を開拓します。 Googleは、AndroidのデフォルトAIアシスタントとしてGoogleアシスタントをGeminiに置き換える予定です。 Gemini2.0Flash(ベースモデル)、Flash Lite(コスト効率の高いバージョン)、2.0Pro(拡張コンテキスト処理機能を備えた)の3つの新しいモデルバリアントが発売されます。 EU、スイス、英国以外では、GeminiはユーザーのGoogle検索履歴にアクセスできるようになり、よりコンテキスト化された応答プラットフォームを提供しています。画像を生成および編集し、YouTubeビデオを理解するためのネイティブマルチモーダル機能を取得します。
Googleニュースの公式によると、世界中のGeminiおよびGemini Advancedユーザーがキャンバスとオーディオの概要関数を利用できるようになりました。