スマートメガネは異なっていました:テクノロジーの新しい時代に対するGoogleのビジョン
視界のパラダイムシフト:日常生活におけるグーグルのスマートAIへの方法
Googleは、ポータブルテクノロジーの分野における重要な技術的進化の基準に基づいています。 Gemini Liveの最新の開発は、新しいスマートグラスの具体的な計画と組み合わされており、人工知能との対話方法を根本的に変える可能性のあるパラダイムシフトを示しています。 Gemini Liveでの視覚認識スキルの統合は、今後のスマートガラスソリューションの技術的基盤を形成し、日常生活におけるユビキタスなAI支援に対するGoogleのビジョンにおける戦略的な転換点を示しています。
に適し:
2番目の試み:Googleがスマートグラス市場に戻った
Smart GlassesエリアでのGoogleの最初の試みは10年以上でした。 2012年に発表され、2015年に消費者向けに廃止されたGoogle Glassは、多くの点でその時代を先取りしていました。わずか42グラムの重量では、メガネは比較的軽いものでしたが、2〜3時間しか低いバッテリー寿命などの実際的な制限に苦しんでいました。さらに、今日のスマートメガネが革新的なものにすることができる時点で、決定的な要素が欠落していました:高度な生成AI。
Google Glassの商業障害の後、同社はエンタープライズアプリケーションに焦点を当てましたが、大部分は消費者市場から撤退しました。それまでの間、テクノロジー自体は継続的に開発されました。 Focals Smart GlassesのメーカーであるNorthの買収は、数年前にこの製品カテゴリに継続的に関心を持っていることを示しています。 Googleが現在開発している新しいスマートメガネは、焦点よりもかなりスリムで快適であるはずであり、したがって、前世代からのレッスンを考慮しています。
現在の報告によると、GoogleはRay-Banを含むEssilorluxotticaなどの確立されたメーカーと交渉中です。この戦略的決定は、GoogleがGoogle Glassの主な問題の1つであるファッショナブルな受け入れの欠如を回避するのに役立ちます。レイバンは、メタとのコラボレーションを通じて、すでにスマートサングラスの経験があります。これらのパートナーシップは、新しいスマートメガネを印象的なテクノロジーデモンストレーションとしてではなく、ファッションアクセサリーとして配置するために重要です。
に適し:
Project Astra:GoogleのビジュアルAIアシスタントの基礎
GoogleのSmart Glasses戦略の中心にあるのは、「Project Astra」です。これは、ユニバーサルビジュアルAIアシスタントの開発に関する野心的な研究プロジェクトです。 Googleは、2024年5月のI/O Developer Conferenceで初めてProject Astraを実証し、視覚的なAI支援の可能性を示した印象的な技術的デモンストレーションを示しました。
重要な組織再編で、Googleは最近、Geminiチームの屋根の下にProject Astraの背後にあるチームを統合しました。この合併は、Googleのスマートグラスのビジョンに対するGeminiの中心的な重要性を強調しており、両方の技術が統一戦略の一部と見なされていることを示しています。 Astraチームは、Geminiチーム内のライブ機能に特化して作業し、Geminiの視覚コンポーネントをさらに拡大する予定です。
Astraのプロジェクトの技術的基礎は著しく進歩しています。 10年前の成熟した製品よりも未来のビジョンであったGoogle Glassとは対照的に、Project Astraは、現在利用可能な現実的な技術的可能性に基づいています。 Google I/Oのデモンストレーションは、ユーザーがスマートグラスを通して自分の周囲をどのように見て、同時にAIアシスタントとそれについて話すことができるかを示しました。 11年前に希望に満ちた思考と見なされていたものは、今日技術的に実現可能です。
ジェミニライブ:スマートフォンとスマートグラスの間の橋
ジェミニライブの最新の開発は、現在のスマートフォンアプリケーションと今後のスマートメガネとの間に決定的な橋を架けています。 2025年3月、GoogleはGemini Liveの重要な拡張を発表しました。これは、とりわけAIアシスタントの視覚的スキルを向上させました。
新しい機能には、ライブビデオ入力と画面のリリースが含まれます。つまり、Geminiのユーザーはリアルタイムで表示されるものについて話すことができます。これらの機能は、高速でモバイルアプリケーション用に特別に最適化されたマルチモーダルモデルのバージョンであるGemini 2.0 Flashによってサポートされています。 2025年3月末から、Gemini Advancedサブスクライバーのこれらの機能は、Google One AIプレミアムプランの一部としてAndroidデバイスで利用可能になります。
これらの新しいスキルの機能は非常に直感的です。ユーザーは、スマートフォンカメラを興味深いオブジェクトに向けて、直接geminiに尋ねることができます。 AIアシスタントは、ビデオ画像をリアルタイムで分析し、コンテキスト関連の情報を提供します。ユーザーは、Geminiの画面をリリースしたり、AI BOTとのスマートフォンのやり取りで見たものについて話し合うこともできます。
これらの機能は、孤立したスマートフォン機能と見なされるだけでなく、計画されたスマートメガネ機能の直接的な先駆者と見なされるためです。 Google自体は、この接続を明確に確立しています。「Gemini Live with Visual Componentは、Googleがまもなくスマートグラスに使用したい表面です」。スマートフォンアプリケーションとスマートメガネの決定的な違いは、最終的にスマートフォンの表示またはスマートメガネのカメラ画像の表示がリリースされるかどうかのみで構成されています。
Googleの今後のスマートメガネ
Googleの新しいスマートメガネは、以前の実験と比較して、さらに大きな開発になると予想されています。 Geminiは中心的な要素として機能し、オーディオとビジュアルの両方でユーザーが常に利用できます。ユーザーの視野は、Geminiのために永続的にリリースされることです。つまり、AIボットは現実世界のユーザーと実際に対話できることを意味します。
Gemini API開発者競争に提出された「Gemini Sight」プロジェクトの一環として、AIがサポートするスマートメガネの概念が提示されました。これらの革新的なAIを搭載したスマートメガネは、Googleサービスにシームレスに統合し、カレンダー管理からの単純な音声コマンドを通じてさまざまなタスクを自動化する必要があります。
選択された人々のサークルは、すでにジェミニAIメガネで実践的な経験を積む機会がありました。報告書は、メガネが実際に10年以上前にGoogleが実現できなかったGoogle Glassエクスペリエンスを提供することを示しています。特に生成AIの分野での技術の進歩は、今日でも将来の音楽でした。
Googleサービスとマルチモーダルスキルとの統合
今後のスマートメガネの中心的な側面は、既存のGoogleサービスとの包括的な統合です。 Geminiは、Gmail、Google Drive、Google Docs、Google Maps、YouTube、Google Flights、Googleホテルなど、多くのGoogleアプリやサービスに既にリンクできます。これらのリンクにより、アシスタントは関連情報をより速く見つけ、複雑なタスクを自動化できます。
ジェミニライブのマルチモーダルスキルは継続的に拡大されています。もともとは英語でのみ利用可能でしたが、ジェミニは現在、ドイツ語を含む45以上の言語をサポートしています。この言語的汎用性は、スマートメガネのグローバル市場の立ち上げに向けた重要なステップです。同じデバイスで最大2つの言語で会話をする能力、さらには文の途中で言語を変更する能力は特に驚くべきことです。
Gemini Liveの視覚的スキルは、単純な画像分析をはるかに超えています。ユーザーは写真をアップロードしたり、YouTubeビデオを視聴したり、Geminiと同時にそれについて話すことができます。ビデオを使用すると、Geminiはコンテンツを要約し、それに関する質問に答えることができます。たとえば、YouTubeでの製品レビューなどです。 PDFファイルを使用すると、AIは質問を要約して明確にするだけでなく、ユーザーの知識をテストするためにクイズを作成することさえできます。
に適し:
市場の可能性と社会的影響
AIベースのスマートメガネの市場の可能性は膨大です。 Google Glassは主にデータ保護の懸念と実際的な適用性のために失敗しましたが、Geminiの統合はこれらの課題を部分的に克服する可能性があります。実用的なアプリケーションのケースは多様であり、日常のエイズから専門的な専門的なアプリケーション、障害のある人向けの支援システムに至るまでさまざまです。
それにもかかわらず、特にデータ保護の分野では、重要な質問が開いたままです。 AIを使用した視野の恒久的な部分は、GoogleがGoogle Glassよりも幅広い受け入れを達成するために対処しなければならない新しい倫理的および法的な質問を提起します。確立されたメーカーとの協力は、技術をより微妙で社会的に受け入れられるようにするのに役立ちます。
Googleは、拡張された現実の分野で他のテクノロジー企業と集中的に競争しています。 AppleはVision Proを使用してより包括的なXRソリューションに依存していますが、Googleはスマートメガネを使用して、より軽く、より日常的な拡張現実に焦点を当てています。 Googleはまた、スマートグラスとより包括的なVRグラスの両方をサポートすることを目的としたプラットフォームであるAndroid XRの開発を発表しました。
ジェミニは、人間と相互作用の新しい時代の前兆として生きています
Gemini Liveでの視覚スキルの統合は、Googleの遍在するAI支援に対する長期的な長期的なビジョンの決定的なステップを示しています。スマートフォンで始まるものは、おそらく今後のスマートメガネにピークに達するでしょう。技術的基盤はすでに利用可能であり、Googleはスマートフォンの広範な分布を、後でスマートメガネに実装する機能のテストフィールドとして使用しています。
Gemini Liveの開発は、Googleの戦略的アプローチを示しています。新しいAI機能は、スマートメガネなどの特殊なハードウェアに統合される前に、最初にスマートフォンで導入、テスト、最適化されています。このステップによるステップ手順は、Googleが過去の間違いを回避し、技術的に成熟しており、社会的に受け入れられている製品を開発するのに役立ちます。
今後数か月は、Googleが拡張されたGemini Live機能からスマートフォン、本格的なスマートガラスソリューションにどれだけ速く通過するかを示します。プロジェクトASTRAチームのGeminiチームへの統合による組織の再構築は、この開発の加速を示しています。 2025年3月末にジェミニライブの視覚機能の導入により、ポータブルAIテクノロジーの開発におけるGoogleの次の大きなステップへの道を開く重要な基盤が作成されます。
に適し:
あなたのグローバルマーケティングおよびビジネス開発パートナー
☑️ 私たちのビジネス言語は英語またはドイツ語です
☑️ NEW: 母国語での通信!
喜んで個人アドバイザーとしてあなたと私のチームにお役に立ちたいと思っています。
お問い合わせフォームにご記入 +49 89 89 674 804 (ミュンヘン)までお電話ください。私のメールアドレスは: wolfenstein ∂ xpert.digital
私たちの共同プロジェクトを楽しみにしています。