Website-Icon Xpert.Digital

Google Gemini KI mit Live-Video-Analyse und Screen-Sharing-Funktionalität – Mobile World Congress (MWC) 2025

Google Gemini KI mit Live-Video-Analyse und Screen-Sharing-Funktionalität - Mobile World Congress (MWC) 2025

Google Gemini KI mit Live-Video-Analyse und Screen-Sharing-Funktionalität – Mobile World Congress (MWC) 2025 – Bild: Xpert.Digital

Multimodale Interaktion: Die Zukunft des Google KI-Assistenten

Neue KI-Funktionen: Was der Gemini-Boost für Nutzer bedeutet

Auf dem Mobile World Congress (MWC) 2025 in Barcelona hat Google bedeutende Erweiterungen für seinen KI-Assistenten Gemini vorgestellt, die das Nutzererlebnis durch neue visuelle Funktionen verbessern sollen. Die Hauptneuerungen umfassen Live-Video-Analyse und Screen-Sharing-Fähigkeiten, die Ende März für Abonnenten des Google One AI Premium Plans verfügbar sein werden. Diese Entwicklungen markieren einen wichtigen Meilenstein in Googles Strategie, künstliche Intelligenz tiefer in den Alltag zu integrieren und die multimodale Interaktion zwischen Nutzern und digitalen Assistenten zu verbessern.

Passend dazu:

Die neuen visuellen Funktionen für Gemini

Live-Video-Analyse

Eine der herausragenden Neuerungen, die Google auf dem MWC 2025 präsentierte, ist die Live-Video-Funktion für Gemini. Diese Technologie ermöglicht es Nutzern, der KI in Echtzeit zu zeigen, was ihre Smartphone-Kamera erfasst, und darüber einen natürlichen Dialog zu führen. Die Funktion wurde erstmals im Mai 2024 auf Googles I/O-Konferenz angeteasert und ist nun bereit für die Einführung. In einem von Google gezeigten Demonstrationsvideo ist zu sehen, wie eine Töpferin ihre Kamera auf eine Sammlung von Keramikarbeiten richtet und Gemini nach Ratschlägen zur Farbauswahl für ihre nächste Vase fragt. Der KI-Assistent analysiert die vorhandenen Farben und gibt eine fundierte Empfehlung für eine passende Glasur.

Diese Funktion nutzt die multimodalen Fähigkeiten von Gemini, visuelle Informationen in Echtzeit zu verarbeiten und im Kontext einer natürlichen Konversation zu interpretieren. Sie ist Teil von Googles größerem Vorhaben, das unter dem Namen “Project Astra” bekannt ist, und stellt einen bedeutenden Fortschritt in der Entwicklung von KI-Assistenten dar, die mit der realen Welt interagieren können.

Screen-Sharing-Funktionalität

Die zweite wichtige visuelle Erweiterung ist die Screen-Sharing-Funktion, die es Nutzern ermöglicht, ihren Smartphone-Bildschirm mit Gemini zu teilen. Beim Start der Gemini-Oberfläche auf Android erscheint ein neuer Button mit der Aufschrift “Bildschirm mit Live teilen”, über den Nutzer ihren Bildschirm in Echtzeit mit dem KI-Assistenten teilen können. Diese Funktion wird durch eine neue Benachrichtigung im Stil eines Telefonanrufs ergänzt, die eine nahtlose Integration in die Benutzeroberfläche ermöglicht.

In praktischen Anwendungsszenarien kann Gemini durch diese Funktion beispielsweise beim Online-Shopping assistieren. In einem Demonstrationsbeispiel zeigt Google, wie ein Nutzer Gemini fragen kann, was gut zu einer auf dem Bildschirm angezeigten Jeans passen würde. Gemini kann dann basierend auf dem, was es sieht, Empfehlungen geben und den Nutzer durch den Einkaufsprozess begleiten.

Technische Details und Verfügbarkeit

Zeitplan für die Einführung

Google plant, die neuen Live-Video- und Screen-Sharing-Funktionen noch im März 2025 für Gemini Advanced-Abonnenten auszurollen. Diese Funktionen werden als Teil des Google One AI Premium Plans angeboten, der monatlich 21,99 Euro kostet. Zunächst werden die Erweiterungen nur für Android-Geräte verfügbar sein, wobei besonders Pixel- und Samsung-Geräte zu den ersten gehören werden, die unterstützt werden.

Integration in Gemini Live

Die neuen visuellen Funktionen werden in Gemini Live integriert, Googles kontinuierlichen KI-Assistenten, der Echtzeit-Gespräche ermöglicht. Gemini Live wurde mit Gemini 2.0 Flash aktualisiert, einer Version des multimodalen Modells, die speziell für die schnelle, mobile Nutzung optimiert wurde. Interessanterweise wird die Bildschirmfreigabe durch eine neue Benachrichtigung im Stil eines Telefonanrufs unterstützt, was eine nahtlose Integration in das Nutzererlebnis ermöglichen soll.

Technologische Grundlage

Die neuen Funktionen basieren auf Project Astra, Googles Vorhaben für einen universellen multimodalen KI-Assistenten. Ziel dieses Projekts ist es, einen Assistenten zu entwickeln, der Text-, Video- und Audiodaten in Echtzeit verarbeiten und in einem Gesprächskontext von bis zu zehn Minuten speichern kann. Diese Technologie soll auch Google Search, Lens und Maps nutzen können, um ein umfassendes Assistenzerlebnis zu bieten.

Passend dazu:

Gemini im Kontext des KI-Assistenten-Marktes

Wettbewerbspositionierung

Mit den neuen visuellen Funktionen positioniert sich Google strategisch gegen seinen Hauptkonkurrenten OpenAI und dessen ChatGPT. Der Advanced Voice Mode von ChatGPT unterstützt bereits seit Dezember 2024 Live- und Screen-Sharing. Durch die Integration dieser Funktionen in Gemini Live stellt Google sicher, dass sein KI-Assistent wettbewerbsfähig bleibt und vergleichbare Fähigkeiten bietet.

Bedeutung für die Smartphone-Branche

Die Einführung fortschrittlicher KI-Funktionen wie die von Gemini könnte bedeutende Auswirkungen auf die Smartphone-Branche haben. Nach zwei Jahren rückläufiger Verkaufszahlen, in denen viele Verbraucher ihre Geräte länger behalten haben, könnte die Integration von KI-Assistenten mit erweiterten Fähigkeiten neue Kaufanreize schaffen. In Deutschland hat nach einer Erhebung des Bitkoms nur noch jeder Dritte ein Gerät, das jünger als ein Jahr ist – 2023 waren es noch 55 Prozent.

Die Smartphone-Hersteller nutzen die neuen KI-Funktionen als Differenzierungsmerkmal, da sich die Geräte äußerlich und technologisch stark ähneln. So zeigt Samsung beispielsweise, wie ein Agent auf dem neuen Smartphone S25 Aufgaben über mehrere Apps hinweg erledigen kann, während Oppo die visuellen Fähigkeiten der Künstlichen Intelligenz zur Bildbearbeitung demonstriert.

Weitere Updates für Gemini

Erweiterte Sprachunterstützung

Neben den visuellen Funktionen hat Google auch die Sprachfähigkeiten von Gemini erweitert. Der KI-Assistent kann nun in 45 Sprachen verstehen und sprechen. Eine besonders innovative Funktion ist die Fähigkeit, mitten im Satz die Sprache zu wechseln, ohne dass die Nutzer die Spracheinstellungen ihres Telefons ändern müssen – “Gemini Live wird es verstehen und antworten können”.

Neue Widgets für iPhone-Nutzer

Obwohl die visuellen Funktionen zunächst nur für Android-Geräte verfügbar sein werden, hat Google auch Updates für iPhone-Nutzer angekündigt. Mit der Version 1.2025.0762303 der Gemini-App werden sechs verschiedene Sperrbildschirm-Widgets eingeführt, die einen schnelleren Zugriff auf den KI-Assistenten ermöglichen. Diese Widgets umfassen Optionen wie “Prompt eingeben”, “Mit Gemini Live sprechen”, “Mikrofon öffnen”, “Kamera verwenden”, “Bild teilen” und “Datei teilen”. Sie können sowohl auf dem Sperrbildschirm als auch im Kontrollzentrum des iPhones platziert werden, was den Zugriff auf Gemini erleichtert.

Diese Entwicklung wird von einigen Beobachtern als Versuch gewertet, iPhone- und iPad-Nutzer von Apples Sprachassistenten Siri wegzulocken. Berichten zufolge macht Apple nur langsam Fortschritte bei der Entwicklung einer leistungsfähigeren Version von Siri, die mit den führenden KI-Plattformen konkurrieren kann.

Schlussfolgerung: Bedeutung und Ausblick

Die von Google auf dem MWC 2025 präsentierten Updates für Gemini markieren einen wichtigen Schritt in der Evolution von KI-Assistenten. Die neuen visuellen Funktionen – Live-Video-Analyse und Screen-Sharing – ermöglichen eine intuitivere und kontextbezogenere Interaktion zwischen Nutzern und der künstlichen Intelligenz. Sie sind Teil einer breiteren Entwicklung hin zu multimodalen Assistenten, die zunehmend mit der realen Welt interagieren können.

Die Integration dieser Funktionen könnte weitreichende Auswirkungen auf verschiedene Bereiche haben. Für die Smartphone-Branche könnten sie neue Kaufanreize schaffen und dazu beitragen, den stagnierenden Markt wiederzubeleben. Für Nutzer eröffnen sie neue Möglichkeiten, KI im Alltag zu nutzen, sei es beim Einkaufen, bei kreativen Projekten oder bei der Suche nach Informationen.

Gleichzeitig verdeutlichen diese Entwicklungen den anhaltenden Wettbewerb zwischen den großen Technologieunternehmen im Bereich der KI-Assistenten. Google, OpenAI, Apple und andere arbeiten kontinuierlich daran, ihre Assistenten zu verbessern und mit neuen Funktionen auszustatten. Dies treibt die Innovation voran und könnte in den kommenden Jahren zu noch leistungsfähigeren und intuitiveren KI-Assistenten führen.

Mit Project Astra und den neuen Funktionen für Gemini zeigt Google seine langfristige Vision für KI-Assistenten: Sie sollen universell, multimodal und tief in den Alltag integriert sein. Die auf dem MWC 2025 vorgestellten Updates sind ein wichtiger Schritt auf diesem Weg und geben einen Einblick in die Zukunft der Mensch-Maschine-Interaktion.

Passend dazu:

 

Ihr globaler Marketing und Business Development Partner

☑️ Unsere Geschäftssprache ist Englisch oder Deutsch

☑️ NEU: Schriftverkehr in Ihrer Landessprache!

 

Konrad Wolfenstein

Gerne stehe ich Ihnen und mein Team als persönlicher Berater zur Verfügung.

Sie können mit mir Kontakt aufnehmen, indem Sie hier das Kontaktformular ausfüllen oder rufen Sie mich einfach unter +49 89 89 674 804 (München) an. Meine E-Mail Adresse lautet: wolfensteinxpert.digital

Ich freue mich auf unser gemeinsames Projekt.

 

 

☑️ KMU Support in der Strategie, Beratung, Planung und Umsetzung

☑️ Erstellung oder Neuausrichtung der Digitalstrategie und Digitalisierung

☑️ Ausbau und Optimierung der internationalen Vertriebsprozesse

☑️ Globale & Digitale B2B-Handelsplattformen

☑️ Pioneer Business Development / Marketing / PR / Messen

Die mobile Version verlassen