マルチモーダルインタラクション:Google AIアシスタントの未来
新しいAI機能:Gemini Boostがユーザーにとって何を意味するのか
バルセロナで開催されたMobile World Congress (MWC) 2025において、GoogleはAIアシスタント「Gemini」の大幅な機能強化を発表しました。この機能は、新たなビジュアル機能を通じてユーザーエクスペリエンスを向上させることを目的としています。主な機能強化には、ライブビデオ分析機能と画面共有機能が含まれており、Google One AIプレミアムプランの加入者は3月末から利用できるようになります。これらの開発は、AIを日常生活にさらに深く統合し、マルチモーダルなインタラクションを向上させる
に適し:
ジェミニの新しい視覚的特徴
ライブビデオ分析
GoogleがMWC 2025で発表した注目すべきイノベーションの一つは、Geminiのライブビデオ機能です。この技術により、ユーザーはスマートフォンのカメラで撮影した映像をAIにリアルタイムで表示し、自然な対話を行うことができます。この機能は2024年5月のGoogle I/Oカンファレンスで初めて発表され、現在正式リリースの準備が整っています。Googleが公開したデモ動画では、陶芸家が陶器の作品群にカメラを向け、次の花瓶の色選びについてGeminiにアドバイスを求めています。AIアシスタントは利用可能な色を分析し、適切な釉薬を的確に提案します。
この機能は、Geminiのマルチモーダル機能を活用し、視覚情報をリアルタイムで処理し、自然な会話の文脈の中で解釈します。これは、Googleの大規模プロジェクト「Project Astra」の一部であり、現実世界と対話できるAIアシスタントの開発における大きな進歩を表しています。
画面共有機能
2つ目の重要なビジュアル強化は、画面共有機能です。この機能により、ユーザーはスマートフォンの画面をGeminiと共有できます。AndroidでGeminiインターフェースを起動すると、「Liveで画面を共有」という新しいボタンが表示され、AIアシスタントとリアルタイムで画面を共有できます。この機能は、通話のようなスタイルの新しい通知機能によって補完され、ユーザーインターフェースへのシームレスな統合を実現しています。
実際の応用シナリオでは、Geminiはこの機能を例えばオンラインショッピングの支援に活用できます。Googleのデモでは、ユーザーが画面に表示されたジーンズに合うものをGeminiに尋ねると、Geminiはそれに基づいておすすめを提示し、ユーザーをショッピングプロセスへと導きます。
技術的な詳細と入手可能性
導入のタイムライン
Googleは、Gemini Advancedの加入者向けに、新しいライブビデオと画面共有機能を2025年3月にも展開する予定です。これらの機能は、月額21.99ユーロのGoogle One AIプレミアムプランの一部として提供されます。当初はAndroidデバイスのみで利用可能で、PixelとSamsungデバイスも最初にサポートされる予定です。
Gemini Liveへの統合
新しいビジュアル機能は、リアルタイムの会話を可能にするGoogleの継続的なAIアシスタント「Gemini Live」に統合されています。Gemini Liveは、モバイルでの高速な利用に特化して最適化されたマルチモーダルモデル「Gemini 2.0 Flash」にアップデートされました。興味深いことに、画面共有は通話のような新しい通知でサポートされており、ユーザーエクスペリエンスへのシームレスな統合を実現しています。
技術基盤
これらの新機能は、GoogleのユニバーサルでマルチモーダルなAIアシスタント開発プロジェクト「Project Astra」に基づいています。このプロジェクトの目標は、テキスト、動画、音声データをリアルタイムで処理し、最大10分間の会話コンテキスト内に保存できるアシスタントを開発することです。この技術は、Google検索、Googleレンズ、Googleマップを活用し、包括的なアシスタントエクスペリエンスを提供することも目指しています。
に適し:
AIアシスタント市場におけるジェミニ
競争上のポジショニング
Googleはこれらの新しい視覚機能により、主要な競合他社であるOpenAIとそのChatGPTに対して戦略的にポジショニングを図っています。ChatGPTの高度な音声モードは、2024年12月からライブ配信と画面共有をサポートしています。これらの機能をGemini Liveに統合することで、GoogleはAIアシスタントの競争力を維持し、同等の機能を提供することを目指しています。
スマートフォン業界にとっての意義
Geminiのような高度なAI機能の導入は、スマートフォン業界に大きな影響を与える可能性があります。2年間の売上減少の間、多くの消費者がデバイスを長期間使い続けたため、強化された機能を備えたAIアシスタントの統合は、新たな購入動機を生み出す可能性があります。Bitkomの調査によると、ドイツでは、購入から1年未満のデバイスを所有している人は3人に1人しかおらず、2023年には55%に減少しています。
スマートフォンメーカーは、デバイスの外観と技術が非常に似ているため、新しいAI機能を差別化要因として活用しています。例えば、Samsungは新型S25スマートフォンのエージェントが複数のアプリにまたがってタスクを実行する様子をデモンストレーションしており、Oppoは画像処理におけるAIの視覚的機能を披露しています。
ジェミニのさらなるアップデート
強化された言語サポート
Googleは、視覚的な機能に加え、Geminiの言語機能も拡張しました。このAIアシスタントは現在、45の言語を理解し、話すことができます。特に革新的な機能の一つは、ユーザーがスマートフォンの言語設定を変更することなく、会話の途中で言語を切り替えることができることです。「Gemini Liveは理解し、応答します。」
iPhoneユーザー向けの新しいウィジェット
これらのビジュアル機能は当初Androidデバイスのみで利用可能ですが、GoogleはiPhoneユーザー向けのアップデートも発表しています。Geminiアプリのバージョン1.2025.0762303では、AIアシスタントへの素早いアクセスを可能にする6種類のロック画面ウィジェットが導入されています。これらのウィジェットには、「入力プロンプト」「Gemini Liveに話しかける」「マイクを開く」「カメラを使用する」「画像を共有」「ファイルを共有」といったオプションが含まれています。これらのウィジェットはロック画面とiPhoneのコントロールセンターの両方に配置できるため、Geminiへのアクセスが容易になります。
一部の観測者は、この動きをiPhoneとiPadユーザーをAppleの音声アシスタントSiriから引き離そうとする試みだと解釈している。報道によると、Appleは主要なAIプラットフォームに匹敵する、より強力なSiriの開発をゆっくりと進めているようだ。
結論:意義と展望
GoogleがMWC 2025で発表したGeminiのアップデートは、AIアシスタントの進化における重要な一歩です。ライブビデオ分析と画面共有といった新しいビジュアル機能により、ユーザーとAI間のより直感的で状況に応じたインタラクションが可能になります。これらは、現実世界とのインタラクションをさらに強化するマルチモーダルアシスタントに向けた、より広範な開発の一環です。
これらの機能の統合は、様々な分野に広範な影響を及ぼす可能性があります。スマートフォン業界にとっては、新たな購入動機を生み出し、停滞している市場の活性化につながる可能性があります。ユーザーにとっては、ショッピング、クリエイティブなプロジェクト、情報検索など、日常生活におけるAI活用の新たな可能性が開かれることになります。
同時に、これらの開発は、AIアシスタント分野における主要テクノロジー企業間の継続的な競争を浮き彫りにしています。Google、OpenAI、Appleといった企業は、アシスタントの改良と新機能の搭載に継続的に取り組んでいます。これはイノベーションを促進し、今後数年間でさらに強力で直感的なAIアシスタントの実現につながる可能性があります。
GoogleはProject AstraとGeminiの新機能を通じて、AIアシスタントの長期ビジョンを体現しています。AIアシスタントはユニバーサルでマルチモーダルであり、日常生活に深く統合されるべきです。MWC 2025で発表されたアップデートは、この方向性に向けた重要な一歩であり、人間と機械のインタラクションの未来を垣間見せてくれます。
に適し:
あなたのグローバルマーケティングおよびビジネス開発パートナー
☑️ 私たちのビジネス言語は英語またはドイツ語です
☑️ NEW: 母国語での通信!
喜んで個人アドバイザーとしてあなたと私のチームにお役に立ちたいと思っています。
お問い合わせフォームにご記入 +49 89 89 674 804 (ミュンヘン)までお電話ください。私のメールアドレスは: wolfenstein ∂ xpert.digital
私たちの共同プロジェクトを楽しみにしています。


