Veröffentlicht am: 22. April 2025 / Update vom: 22. April 2025 – Verfasser: Konrad Wolfenstein

Google Smart Glasses Prototyp mit Gemini-AI auf der TED-Konferenz “Humanity Reimagined” in Vancouver vorgestellt – Bild: Xpert.Digital
Googles Smart Glasses der nächsten Generation: Ein Blick in die Zukunft
Googles Smart Glasses mit Display und Gemini-Features: Eine neue Ära der erweiterten Realität
Google hat kürzlich auf der TED-Konferenz “Humanity Reimagined” in Vancouver, Kanada, einen fortschrittlichen Prototyp seiner neuen Smart Glasses mit integriertem Display und Gemini-KI-Funktionen vorgestellt. Die TED2025-Konferenz fand vom 7. bis 11. April 2025 statt. Diese Präsentation markiert einen bedeutenden Fortschritt in Googles AR-Strategie und könnte die Art und Weise, wie wir mit digitalen Informationen im Alltag interagieren, grundlegend verändern. Nach dem kommerziellen Misserfolg der ursprünglichen Google Glass kehrt das Unternehmen mit einer technologisch ausgereifteren und alltagstauglicheren Lösung zurück, die beeindruckende KI-Funktionen mit einem unauffälligen Design kombiniert.
Passend dazu:
- Googles Smart-Glasses-Strategie mit Project Astra und Gemini Live: Die neue Ära der visuellen KI-Assistenz von Google
Design und Hardware der neuen Smart Glasses
Die auf der TED-Konferenz präsentierten Smart Glasses von Google zeichnen sich durch ein bemerkenswertes, nahezu konventionelles Brillendesign aus. Im Gegensatz zur auffälligen ersten Generation der Google Glass sind die neuen Smart Glasses auf den ersten Blick kaum von normalen Brillen zu unterscheiden. Die Brille verfügt über einen schwarzen Rahmen und ist trotz der integrierten Technologie sehr leicht, was auf ein durchdachtes Hardware-Konzept hindeutet.
Ein wesentliches Designmerkmal ist die enge Integration mit dem Smartphone des Nutzers. Shahram Izadi, Leiter von Android XR bei Google, erklärte während der Demonstration: “Diese Brille arbeitet mit Ihrem Smartphone zusammen, streamt Inhalte hin und her und ermöglicht es, dass die Brille sehr leicht ist und auf alle Ihre Handy-Apps zugreifen kann”. Diese Architektur stellt einen fundamentalen Unterschied zum ursprünglichen Google Glass-Konzept dar, bei dem versucht wurde, möglichst viel Hardware in die Brille selbst zu integrieren.
Die technischen Spezifikationen wurden während der Vorführung nicht im Detail bekannt gegeben. Es wurde jedoch bestätigt, dass die Brille über ein Miniatur-Display verfügt, auf das Informationen projiziert werden können. Zudem ist eine Kamera integriert, die für verschiedene Funktionen wie die Erkennung von Objekten und Umgebungen genutzt wird. Auch ein Mikrofon ist vorhanden, um Sprachbefehle entgegenzunehmen und die Kommunikation mit dem Gemini-KI-Assistenten zu ermöglichen.
Technologische Integration und Leichtgewicht-Design
Der entscheidende technologische Fortschritt, der das kompakte Design ermöglicht, liegt in der Verlagerung der Rechenleistung. Durch die ständige Verbindung zwischen Smartphone und Brille sowie die permanente Cloudanbindung kann nahezu die gesamte Technik auf das Smartphone verschoben werden. Die Brille selbst benötigt hauptsächlich eine Kamera, ein Mikrofon und die Displaytechnologie, was zu einem deutlich leichteren und unauffälligeren Design führt als bei früheren Versuchen im AR-Brillen-Segment.
Gemini-KI als Herzstück der Smart Glasses
Das zentrale Element, das die neuen Google Smart Glasses von früheren AR-Brillen unterscheidet, ist die Integration von Googles fortschrittlichem KI-Modell Gemini. Die KI-Funktionen werden unter dem Namen “Gemini Live” auf den Smart Glasses implementiert, eine Version, die speziell für die Interaktion in Echtzeit optimiert wurde.
Gemini fungiert in den Smart Glasses als ständiger Begleiter, der durch natürliche Sprachbefehle aktiviert werden kann und auf visuelle sowie auditive Kontextinformationen zugreift. Die KI kann die Umgebung des Nutzers “sehen” und “verstehen”, was völlig neue Arten der Interaktion ermöglicht. Durch die kürzlich erfolgte Erweiterung von Gemini Live um Kamera- und Displayfreigabefunktionen sowie die “Talk about”-Funktion, die Gespräche über Bilder oder Videos ermöglicht, hat Google die technologischen Grundlagen für die Smart Glasses bereits auf Smartphones etabliert.
Die Integration von Gemini in die Smart Glasses erfolgt über die Android XR-Plattform, die speziell für XR-Geräte (Extended Reality) entwickelt wurde. Google beschreibt Android XR als “eine offene, einheitliche Plattform für XR-Headsets und -Brillen”, die Nutzern “mehr Auswahl an Geräten und Zugang zu Apps, die sie bereits kennen und lieben” bieten soll.
Passend dazu:
- Xpert Studie zu “Der Markt für Smart Glasses” – Analyse von Marktdurchdringung, Wettbewerb und Zukunftstrends
Vorgeführte Funktionen und Anwendungsbereiche
Während der TED-Präsentation demonstrierten Shahram Izadi und Nishta Bathia, Produktmanagerin für Glasses & AI bei Google, mehrere beeindruckende Funktionen der Smart Glasses.
Memory-Funktion: Der digitale Gedächtnisassistent
Eine besonders hervorgehobene Funktion ist “Memory” (Gedächtnis), bei der Gemini mithilfe der integrierten Kamera verfolgt, was um den Nutzer herum geschieht, und sich merken kann, wo Alltagsgegenstände abgelegt wurden. In der Demonstration fragte Bathia Gemini: “Weißt du, wo ich zuletzt die Karte hingelegt habe?”, worauf die KI antwortete: “Die Hotelkarte liegt links neben der Schallplatte” und über die Brille auf die Gegenstände im Regal hinter ihr hinwies.
Diese Funktion nutzt ein “rollendes Kontextfenster, bei dem die KI sich merkt, was Sie sehen, ohne dass Sie ihr sagen müssen, worauf sie achten soll”. Dies stellt einen bedeutenden Fortschritt in der kontextuellen Wahrnehmung von KI-Systemen dar und könnte alltägliche Probleme wie das Suchen nach verlegten Gegenständen erheblich vereinfachen.
Echtzeitübersetzung und Textverarbeitung
Eine weitere demonstrierte Funktion ist die Echtzeitübersetzung, bei der die Smart Glasses Gespräche in Echtzeit erfassen, übersetzen oder transkribieren können. Izadi führte eine Live-Übersetzung von Farsi ins Englische vor, wobei die Übersetzung als Untertitel auf dem Display der Brille erschien. Auch die Übersetzung in andere Sprachen wie Hindi wurde erwähnt.
Die Brille kann zudem Texte scannen und verarbeiten, was während der Präsentation durch das Scannen eines Buches demonstriert wurde. Diese Funktionen könnten besonders für internationale Reisen, mehrsprachige Arbeitsumgebungen oder beim Studium fremdsprachiger Texte von großem Nutzen sein.
Kreative und praktische Alltagsfunktionen
Bei der Präsentation wurde auch das Verfassen eines Haiku-Gedichtes vorgeführt, was die kreativen Möglichkeiten der KI-Integration verdeutlicht. Darüber hinaus kann die Brille als Navigationshilfe fungieren, wie Google in seinem Blog zeigt. Die Gemini-KI kann Routenvorschläge direkt im Sichtfeld des Nutzers anzeigen und so die Navigation in unbekannten Umgebungen erleichtern.
Die Gemini Sight Glasses sollen es ermöglichen, zahlreiche alltägliche Aufgaben über einfache Sprachbefehle zu automatisieren – vom Verwalten des Kalenders über das Senden von E-Mails bis hin zum Verfassen von Dokumenten oder dem Reservieren eines Tisches in einem nahegelegenen Restaurant.
Android XR: Das neue Betriebssystem für XR-Geräte
Die vorgestellten Smart Glasses basieren auf Android XR, einem neuen Betriebssystem, das Google im Dezember 2024 angekündigt hat. Android XR wurde speziell für XR-Geräte entwickelt und soll eine einheitliche Plattform für unterschiedliche Arten von AR- und VR-Hardware bieten.
Zusammenarbeit mit Samsung und Erweiterung des XR-Ökosystems
Google entwickelt Android XR in Zusammenarbeit mit Samsung, was auf eine breitere Industrie-Unterstützung für das neue Ökosystem hindeutet. Neben den Smart Glasses wurde auf der TED-Konferenz auch ein Mixed-Reality-Headset namens “Project Moohan” vorgestellt, das ebenfalls auf Android XR basiert und in Partnerschaft mit Samsung entwickelt wird.
Das Mixed-Reality-Headset nutzt Passthrough-Video-Technologie, “um eine nahtlose Überlagerung der realen und virtuellen Welt zu erzeugen”. Es ist deutlich klobiger als die Smart Glasses und zielt auf intensivere Mixed-Reality-Erfahrungen ab, während die Brille für den ganztägigen Gebrauch konzipiert ist.
Entwicklerplattform und App-Ökosystem
Android XR soll es Entwicklern ermöglichen, Anwendungen für verschiedene XR-Geräte mit vertrauten Android-Tools zu erstellen. Für Entwickler soll es eine einheitliche Plattform mit Möglichkeiten bieten, “Erfahrungen für eine breite Palette von Geräten mit vertrauten Android-Tools und -Frameworks zu entwickeln”. Durch diese Strategie könnte Google schnell ein umfangreiches App-Ökosystem für seine XR-Geräte aufbauen, da Entwickler auf ihr vorhandenes Android-Know-how zurückgreifen können.
Passend dazu:
Marktperspektiven und Zukunftsaussichten
Obwohl Google während der TED-Präsentation keinen offiziellen Veröffentlichungstermin für die Smart Glasses bekannt gab, deuten verschiedene Hinweise darauf hin, dass eine Markteinführung möglicherweise nicht mehr weit entfernt ist. Das südkoreanische Nachrichtenportal ETNews berichtete kürzlich, dass ein Produkt mit dem Codenamen “Haean” noch für dieses Jahr angesetzt ist und dass derzeit die Features und Spezifikationen finalisiert werden.
Medienreaktionen und Hands-on-Erfahrungen
Die Tatsache, dass Google bereits ausgewählten Medienvertretern ein 20-minütiges Hands-on mit der neuen Brille ermöglicht hat, deutet auf ein fortgeschrittenes Entwicklungsstadium hin. Die ersten Reaktionen waren positiv, und es scheint eine gewisse Begeisterung für die Technologie zu geben. Zwischen den Zeilen lässt sich herauslesen, dass Google das Produkt bereits inoffiziell angekündigt hat und die offizielle Präsentation nicht mehr weit entfernt sein dürfte.
Positionierung im wachsenden AR-Markt
Im Vergleich zur Konkurrenz, insbesondere zu den Ray-Ban Meta Smart Glasses, die bereits auf dem Markt sind, scheint Google mit der Integration von fortschrittlichen KI-Funktionen und einem Display einen technologischen Vorsprung anzustreben. Die Ray-Ban Meta Smart Glasses verfügen nicht über ein Display, was die Interaktionsmöglichkeiten einschränkt.
Die Kombination aus unauffälligem Design, leistungsstarker KI und praktischen Alltagsfunktionen könnte Google einen Wettbewerbsvorteil verschaffen und den Markt für AR-Brillen neu definieren. Besonders die tiefe Integration mit dem Android-Ökosystem und Google-Diensten könnte für viele Nutzer ein überzeugendes Argument darstellen.
Google Gemini-Features: Ein Meilenstein für erweiterte Realität
Die Vorstellung der neuen Google Smart Glasses mit Display und Gemini-Features auf der TED-Konferenz markiert einen bedeutenden Meilenstein in der Entwicklung von Augmented-Reality-Technologien. Nach dem gescheiterten ersten Versuch mit Google Glass scheint das Unternehmen die Lehren aus der Vergangenheit gezogen zu haben und präsentiert nun ein Produkt, das technologisch ausgereifter und gleichzeitig gesellschaftlich akzeptabler ist.
Das unauffällige Design, die enge Integration mit dem Smartphone und die leistungsstarken KI-Funktionen könnten dazu beitragen, dass diese neue Generation von Smart Glasses breite Akzeptanz findet. Besonders Funktionen wie “Memory”, Echtzeitübersetzung und Navigation bieten einen konkreten Mehrwert im Alltag.
Die Entwicklung von Android XR als einheitliche Plattform für verschiedene XR-Geräte und die Zusammenarbeit mit Samsung deuten auf Googles langfristige Strategie hin, ein umfassendes Ökosystem für erweiterte Realität aufzubauen. In diesem Ökosystem könnten verschiedene Gerätetypen – von leichten Brillen bis hin zu leistungsstarken Headsets – nahtlos zusammenarbeiten und so völlig neue Arten der Interaktion mit digitalen Inhalten ermöglichen.
Obwohl noch Fragen zur genauen Markteinführung, Preis und Batterielaufzeit offen sind, lassen die bisher gezeigten Fortschritte vermuten, dass Google mit diesen Smart Glasses einen bedeutenden Schritt in Richtung Zukunft der erweiterten Realität gemacht hat. Es bleibt abzuwarten, wie sich diese Technologie weiterentwickeln wird und welche neuen Anwendungsbereiche sich daraus ergeben werden.
Passend dazu:
Ihr globaler Marketing und Business Development Partner
☑️ Unsere Geschäftssprache ist Englisch oder Deutsch
☑️ NEU: Schriftverkehr in Ihrer Landessprache!
Gerne stehe ich Ihnen und mein Team als persönlicher Berater zur Verfügung.
Sie können mit mir Kontakt aufnehmen, indem Sie hier das Kontaktformular ausfüllen oder rufen Sie mich einfach unter +49 89 89 674 804 (München) an. Meine E-Mail Adresse lautet: wolfenstein∂xpert.digital
Ich freue mich auf unser gemeinsames Projekt.