公開:2025年3月4日 /更新:2025年3月4日 - 著者: Konrad Wolfenstein
マルチモーダルインタラクション:Google AIアシスタントの未来
新しいAI関数:Gemini Boostがユーザーにとって意味するもの
バルセロナのモバイルワールドコングレス(MWC)2025で、GoogleはAIアシスタントGeminiの重要な拡張機能を提示しました。これにより、新しい視覚機能を通じてユーザーエクスペリエンスが向上するはずです。主な改修には、3月末にGoogle One AIプレミアムプランに加入者が利用できるライブビデオ分析とスクリーン共有スキルが含まれます。これらの開発は、人工知能を日常生活に深く統合し、マルチモーダル相互作用を改善するため
に適し:
ジェミニの新しい視覚機能
ライブビデオ分析
MWC 2025で提示された傑出した革新の1つは、Geminiのライブビデオ機能です。このテクノロジーにより、ユーザーはスマートフォンカメラがキャプチャするものをリアルタイムでAIに表示し、自然な対話をリードできます。この機能は、2024年5月にGoogle I/O Conferenceで初めてであり、現在は紹介の準備が整いました。 Googleが示すデモビデオでは、ポッターがセラミック作品のコレクションに焦点を当てていることを確認でき、ジェミニに次の花瓶の色の選択に関するアドバイスについて尋ねます。 AIアシスタントは、既存の色を分析し、適切なgl薬について根拠のある推奨事項を提供します。
この関数は、Geminiのマルチモーダルスキルを使用して、視覚情報をリアルタイムで処理し、自然な会話の文脈で解釈します。これは、「Project Astra」として知られているGoogleの大規模プロジェクトの一部であり、現実の世界と対話できるAIアシスタントの開発における大きな進歩を表しています。
画面共有機能
2番目の重要な視覚拡張は、スクリーン共有機能であり、ユーザーがスマートフォン画面をGeminiと共有できるようにします。 AndroidでGeminiインターフェイスを開始すると、「Liveで画面を共有する」という碑文の新しいボタンが表示されます。この関数は、電話のスタイルの新しい通知によって補足されます。これにより、ユーザーインターフェイスへのシームレスな統合が可能になります。
実際のアプリケーションシナリオでは、ジェミニは、たとえばオンラインショッピングなどを支援できます。デモンストレーションの例では、GoogleはユーザーがGeminiに画面に表示されるジーンズに適していることを尋ねる方法を示しています。 Geminiは、購入プロセスを通じてユーザーに見られるものに基づいて推奨事項を提供できます。
技術的な詳細と可用性
はじめに時刻表
Googleは、2025年3月にGemini Advancedサブスクライバーの新しいライブビデオおよびスクリーン共有機能を展開する予定です。これらの機能は、Google One AIプレミアムプランの一部として提供されます。これは、月額21.99ユーロです。第一に、拡張機能はAndroidデバイスでのみ利用可能であり、特にピクセルデバイスとSamsungデバイスが最初にサポートされるものです。
ジェミニライブの統合
新しい視覚機能は、Googleの継続的なAIアシスタントであるGemini Liveに統合されており、リアルタイムの講演を可能にします。 Gemini Liveは、高速でモバイル使用のために特別に最適化されたマルチモーダルモデルのバージョンであるGemini 2.0 Flashで更新されました。興味深いことに、画面のリリースは、電話のスタイルの新しい通知によってサポートされています。これにより、ユーザーエクスペリエンスへのシームレスな統合が可能になります。
技術的基盤
新しい機能は、ユニバーサルマルチモーダルAIアシスタントのGoogleのプロジェクトであるProject Astraに基づいています。このプロジェクトの目的は、テキスト、ビデオ、オーディオデータをリアルタイムで処理し、最大10分の会話のコンテキストで保存できるアシスタントを開発することです。このテクノロジーは、Google検索、レンズ、マップを使用して、包括的なアシスタントエクスペリエンスを提供できるはずです。
に適し:
AIアシスタント市場のコンテキストでのジェミニ
競争力
新しいビジュアル機能により、Googleは主要な競合他社のOpenaiと彼のチャットに対して戦略的に自分自身を位置づけています。 CHATGPTのAdvanced Voiceモードは、2024年12月からライブおよびスクリーン共有をサポートしています。 Gemini Liveにこれらの機能を統合することにより、GoogleはAIアシスタントが競争力を維持し、同等のスキルを提供することを保証します。
スマートフォン業界の意味
スマートフォン業界に重要な影響を与える可能性のあるGeminiなどの高度なAI機能の導入。多くの消費者がデバイスをより長く維持している2年間の売上高を減らした後、AIアシスタントの統合により、スキルの拡大により新しい購入インセンティブが作成される可能性があります。ドイツでは、Bitkomによると、1年未満のデバイスを持っているのは3分の1だけです。2023年にはまだ55%でした。
スマートフォンメーカーは、デバイスが外側や技術的に非常に似ているため、新しいAI機能を差別化機能として使用します。たとえば、Samsungは、エージェントが新しいスマートフォンS25のいくつかのアプリでタスクを実行する方法を示し、OPPOは画像処理のための人工知能の視覚的スキルを実証しています。
ジェミニのその他の更新
拡張言語サポート
視覚機能に加えて、GoogleはGeminiの言語スキルも拡大しました。 AIアシスタントは、45の言語で理解して話すことができます。特に革新的な機能は、携帯電話の言語設定を変更することなく、文の途中で言語を変更する能力です。「Gemini Liveは理解して答えます」。
iPhoneユーザー向けの新しいウィジェット
視覚機能は最初はAndroidデバイスでのみ利用可能ですが、GoogleはiPhoneユーザー向けの更新も発表しています。 Geminiアプリのバージョン1.2025.0762303を使用すると、6つの異なるロック画面ウィジェットが導入されているため、AIアシスタントへのアクセスが速くなります。これらのウィジェットには、「Enter」、「Talk To Gemini Live」、「Microphoneを開く」、「カメラを使用」、「共有画像」、「ファイルを共有」などのオプションが含まれます。これらは、ロック画面とiPhoneのコントロールセンターの両方に配置でき、Geminiへのアクセスが簡単になります。
この開発は、Appleの音声アシスタントSiriからiPhoneおよびiPadユーザーを誘惑する試みと見なされています。 Appleは、より強力なバージョンのSiriの開発においてゆっくりと進んでいると伝えられています。これは、主要なAIプラットフォームと競合することができます。
結論:意味と見通し
MWC 2025でGoogleが提示したGeminiの更新は、AIアシスタントの進化における重要なステップを示しています。新しいVisual Functions-Liveビデオ分析とスクリーン共有は、ユーザーと人工知能の間のより直感的でコンテキスト関連の相互作用を可能にします。彼らは、現実の世界とますます相互作用できるマルチモーダルアシスタントに対するより広範な開発の一部です。
これらの機能の統合は、異なる領域にはるかに届く効果をもたらす可能性があります。スマートフォン業界では、新しい購入インセンティブを作成し、停滞市場を復活させるのに役立ちます。ユーザーにとって、彼らは、買い物、創造的なプロジェクト、または情報を探しているときであろうと、日常生活でAIを使用する新しい機会を開きます。
同時に、これらの開発は、AIアシスタントの分野での大規模なテクノロジー企業間の継続的な競争を示しています。 Google、Openai、Appleなどは、アシスタントを改善し、新しい機能を装備するために継続的に取り組んでいます。これは革新を推進しており、今後数年間でさらに強力で直感的なAIアシスタントにつながる可能性があります。
Project AstraとGeminiの新しい機能により、GoogleはAIアシスタントに長期的なビジョンを示しています。それらは普遍的でマルチモーダルで、日常生活に深くなるはずです。 MWC 2025で提示された更新は、この方法での重要なステップであり、ヒューマンマシン相互作用の未来についての洞察を提供します。
に適し:
あなたのグローバルマーケティングおよびビジネス開発パートナー
☑️ 私たちのビジネス言語は英語またはドイツ語です
☑️ NEW: 母国語での通信!
喜んで個人アドバイザーとしてあなたと私のチームにお役に立ちたいと思っています。
お問い合わせフォームにご記入 +49 89 89 674 804 (ミュンヘン)までお電話ください。私のメールアドレスは: wolfenstein ∂ xpert.digital
私たちの共同プロジェクトを楽しみにしています。