Sélection de voix 📢


MISE À JOUR: Google Smart Glasses Prototype avec Gemini-AI à la conférence TED "Humanity Reimagined" présentée à Vancouver

Publié le: 22 avril 2025 / mise à jour du: 22 avril 2025 - Auteur: Konrad Wolfenstein

Google Smart Glasses Prototype avec Gemini-AI à la conférence TED

Google Smart Glasses Prototype avec Gemini-AI à la conférence TED «Humanité Reimagined» présentée dans Vancouver-Image: Xpert.Digital

Les lunettes intelligentes de Google de la prochaine génération: un regard sur l'avenir

Les lunettes intelligentes de Google avec affichage et fonctionnalités Gemini: une nouvelle ère de réalité élargie

Google a récemment présenté un prototype avancé de ses nouvelles lunettes intelligentes avec des fonctions d'affichage intégrées et Gemini AI lors de la conférence TED «Humanité repensée» à Vancouver, au Canada. La conférence TED2025 a eu lieu du 7 au 11 avril 2025. Cette présentation marque un progrès significatif dans la stratégie AR de Google et pourrait fondamentalement changer notre façon d'interagir avec les informations numériques dans la vie quotidienne. Après la défaillance commerciale de Google Glass d'origine, la société revient avec une solution plus mature et plus mature technologique qui combine des fonctions d'IA impressionnantes avec un design discret.

Convient à:

Conception et matériel des nouvelles lunettes intelligentes

Les lunettes intelligentes de Google présentées lors de la conférence TED sont caractérisées par une conception de brillle remarquable et presque conventionnelle. Contrairement à la première génération frappante de Google Glass, les nouveaux lunettes intelligentes se distinguent à peine des lunettes normales à première vue. Les lunettes ont un cadre noir et sont très faciles malgré la technologie intégrée, ce qui indique un concept matériel bien pensé.

Une fonction de conception essentielle est une intégration étroite avec le smartphone de l'utilisateur. Shahram Izadi, responsable d'Android XR sur Google, a expliqué lors de la démonstration: "Ces lunettes fonctionnent avec votre smartphone, diffusent du contenu dans les deux sens et permet aux lunettes d'être très légères et peuvent accéder à toutes vos applications de téléphone portable". Cette architecture représente une différence fondamentale par rapport au concept d'origine Google Glass, dans lequel des tentatives ont été faites pour intégrer autant de matériel que possible dans les lunettes elle-même.

Les spécifications techniques n'ont pas été annoncées en détail lors de la démonstration. Cependant, il a été confirmé que les lunettes ont un affichage miniature sur lequel les informations peuvent être projetées. Une caméra est également intégrée pour diverses fonctions telles que la détection des objets et des environnements. Il existe également un microphone pour accepter les commandes vocales et activer la communication avec l'assistant Gemini AI.

Intégration technologique et conception légère

Le progrès technologique crucial qui permet la conception compacte réside dans le déplacement de la puissance de calcul. En raison de la connexion constante entre le smartphone et les lunettes ainsi que la connexion cloud permanente, presque toute la technologie peut être déplacée vers le smartphone. Les lunettes elles-mêmes ont principalement besoin d'une caméra, d'un microphone et d'une technologie d'affichage, ce qui conduit à une conception beaucoup plus légère et plus discrète que dans les tentatives précédentes du segment des lunettes AR.

Gemini-ki comme cœur des lunettes intelligentes

L'élément central, qui distingue les nouveaux lunettes intelligentes Google des lunettes AR précédentes, est l'intégration des Gémeaux de modèle AI avancés de Google. Les fonctions AI sont implémentées sur les lunettes intelligentes sous le nom de «Gemini Live», une version spécialement optimisée pour l'interaction en temps réel.

Gemini agit dans les lunettes intelligentes comme un compagnon constant, qui peut être activé par des commandes vocales naturelles et accède aux informations de contexte visuel et auditif. L'IA peut «voir» et «comprendre» l'environnement de l'utilisateur, ce qui permet de nouveaux types d'interaction. En raison de l'expansion récente de Gemini Live by Camera et des fonctions de libération d'affichage ainsi que de la fonction «parler», qui permet des conversations sur des images ou des vidéos, Google a déjà établi les fondations technologiques des lunettes intelligentes sur les smartphones.

Gemini est intégré aux lunettes intelligentes via la plate-forme Android XR, qui a été spécialement développée pour les appareils XR (réalité étendue). Google décrit Android XR comme «une plate-forme ouverte et uniforme pour les casques et des lunettes», qui devraient offrir aux utilisateurs «plus de sélection d'appareils et d'accès aux applications qu'ils connaissent et aiment déjà».

Convient à:

Fonctions et domaines d'application affichés

Au cours de la présentation TED, Shahram Izadi et Nishta Bathia, chef de produit pour les lunettes et l'IA sur Google, ont démontré plusieurs fonctions impressionnantes des lunettes intelligentes.

Fonction de mémoire: l'assistant de mémoire numérique

Une fonction particulièrement mise en évidence est la «mémoire» (mémoire), dans laquelle Gemini utilise la caméra intégrée pour suivre ce qui se passe autour de l'utilisateur et peut se rappeler où les objets quotidiens ont été stockés. Dans la manifestation, Bathia Gemini a demandé: "Savez-vous où j'ai finalement mis la carte?", Où le Ki a répondu: "La carte de l'hôtel est située à gauche du disque" et sur les lunettes sur l'étagère derrière.

Cette fonction utilise une «fenêtre de contexte roulant, dans laquelle l'IA se souvient de ce que vous voyez sans avoir à lui dire quoi rechercher». Cela représente des progrès significatifs dans la perception contextuelle des systèmes d'IA et pourrait simplifier considérablement les problèmes quotidiens tels que la recherche d'objets posés.

Traduction en temps réel et traitement de texte

Une autre fonction démontrée est la traduction en temps réel, dans laquelle les lunettes intelligentes peuvent enregistrer, traduire ou transcrire des conversations en temps réel. Izadi a effectué une traduction en direct de Farsi à l'anglais, avec la traduction en tant que sous-titre sur l'affichage des lunettes. La traduction dans d'autres langues telles que l'hindi a également été mentionnée.

Les lunettes peuvent également scanner et traiter les textes, qui ont été démontrés en scannant un livre pendant la présentation. Ces fonctions pourraient être très utiles, en particulier pour les voyages internationaux, les environnements de travail multilingues ou lors de l'étude des textes en langue étrangère.

Fonctions quotidiennes créatives et pratiques

Lors de la présentation, l'écriture d'un poème de haïku a également été montrée, qui illustre les possibilités créatives de l'intégration de l'IA. De plus, les lunettes peuvent agir comme une aide de navigation, comme Google le montre dans son blog. Le Gemini-Ki peut afficher des suggestions d'itinéraire directement dans le champ de vision de l'utilisateur et ainsi faciliter la navigation dans des environnements inconnus.

Les lunettes de vue Gemini devraient permettre d'automatiser de nombreuses tâches quotidiennes via des commandes vocales simples en gérant le calendrier pour envoyer des e-mails à écrire des documents ou à réserver une table dans un restaurant à proximité.

Android XR: le nouveau système d'exploitation pour les appareils XR

Les lunettes intelligentes présentées sont basées sur Android XR, un nouveau système d'exploitation que Google a annoncé en décembre 2024. Android XR a été spécialement développé pour les appareils XR et est destiné à offrir une plate-forme uniforme pour différents types de matériel AR et VR.

Coopération avec Samsung et l'expansion de l'écosystème XR

Google développe Android XR en coopération avec Samsung, qui indique un support industriel plus large pour le nouvel écosystème. En plus des lunettes intelligentes, un casque de réalité mixte intitulé «Project Moohan» a également été présenté à la conférence TED, qui est également basé sur Android XR et développé en partenariat avec Samsung.

Le casque de réalité mixte utilise la technologie vidéo passhrough "pour créer une superposition transparente du monde réel et virtuel". Il est beaucoup plus gros que les lunettes intelligentes et vise à des expériences de réalité mixte plus intensives, tandis que les lunettes sont conçues pour une utilisation toute la journée.

Plateforme de développeur et écosystème d'applications

Android XR devrait permettre aux développeurs de créer des applications pour divers appareils XR avec des outils Android familiers. Pour les développeurs, il devrait offrir une plate-forme uniforme avec des possibilités "pour développer des expériences pour un large éventail d'appareils avec des outils et des cadres Android familiers". Avec cette stratégie, Google pourrait rapidement construire un écosystème d'applications étendu pour ses appareils XR, car les développeurs peuvent utiliser leur savoir-faire Android existant.

Convient à:

Perspectives du marché et perspectives d'avenir

Bien que Google n'ait pas annoncé de date de sortie officielle pour les lunettes intelligentes lors de la présentation TED, diverses indications indiquent qu'un lancement du marché peut ne pas être loin. Le portail d'information sud-coréen Etnews a récemment rapporté qu'un produit avec la graine du code «Haean» est toujours prévu pour cette année et que les caractéristiques et les spécifications sont actuellement en cours de finalisation.

Réactions médiatiques et expériences pratiques

Le fait que Google ait déjà fait 20 minutes avec les nouvelles lunettes indique une étape avancée de développement. Les premières réactions ont été positives et il semble y avoir un certain enthousiasme pour la technologie. On peut voir entre les lignes que Google a déjà annoncé le produit officiel et que la présentation officielle ne devrait pas être loin.

Positionnement sur le marché de la RA croissant

Par rapport à la concurrence, en particulier les lunettes intelligentes Ray-Ban Meta, qui sont déjà sur le marché, Google semble viser une avance technologique avec l'intégration des fonctions d'IA avancées et un affichage. Les lunettes intelligentes Ray-Ban Meta n'ont pas d'affichage, ce qui limite les options d'interaction.

La combinaison de conception discrète, d'IA puissante et de fonctions quotidiennes pratiques pourrait donner à Google un avantage concurrentiel et redéfinir le marché des lunettes AR. En particulier, l'intégration profonde avec l'écosystème Android et les services Google pourraient être un argument convaincant pour de nombreux utilisateurs.

Fonctionnalités Google Gemini: une étape importante pour une réalité élargie

La présentation des nouvelles lunettes Smart Google avec un affichage et des fonctionnalités Gemini à la conférence TED marque une étape importante dans le développement des technologies de réalité augmentée. Après la première tentative ratée avec Google Glass, la société semble avoir tiré les enseignements du passé et présente maintenant un produit plus mature technologiquement et en même temps plus socialement acceptable.

La conception discrète, l'intégration étroite avec le smartphone et les fonctions de l'IA puissantes pourraient aider à trouver cette nouvelle génération de largeurs de lunettes intelligentes. Des fonctions telles que la «mémoire», la traduction en temps réel et la navigation offrent une valeur ajoutée spécifique dans la vie quotidienne.

Le développement d'Android XR en tant que plate-forme uniforme pour divers appareils XR et la coopération avec Samsung indique la stratégie à long terme de Google pour construire un écosystème complet pour une réalité élargie. Dans cet écosystème, différents appareils - des verres légers aux casques puissants - pourraient fonctionner de manière transparente ensemble et ainsi permettre de nouveaux types d'interaction avec le contenu numérique.

Bien que les questions sur le lancement exact du marché, le prix et la durée de vie de la batterie soient toujours ouverts, les progrès indiqués jusqu'à présent suggèrent que Google a franchi une étape importante vers l'avenir de la réalité élargie avec ces lunettes intelligentes. Il reste à voir comment cette technologie se développera et quels nouveaux domaines d'application en résulteront.

Convient à:

 

Votre partenaire mondial de marketing et de développement commercial

☑️ Notre langue commerciale est l'anglais ou l'allemand

☑️ NOUVEAU : Correspondance dans votre langue nationale !

 

Pionnier du numérique - Konrad Wolfenstein

Konrad Wolfenstein

Je serais heureux de vous servir, vous et mon équipe, en tant que conseiller personnel.

Vous pouvez me contacter en remplissant le formulaire de contact ou simplement m'appeler au +49 89 89 674 804 (Munich) . Mon adresse e-mail est : wolfenstein xpert.digital

J'attends avec impatience notre projet commun.

 

 

☑️ Accompagnement des PME en stratégie, conseil, planification et mise en œuvre

☑️ Création ou réalignement de la stratégie digitale et digitalisation

☑️ Expansion et optimisation des processus de vente à l'international

☑️ Plateformes de trading B2B mondiales et numériques

☑️ Pionnier Développement Commercial / Marketing / RP / Salons


⭐️ Réalité Augmentée & Etendue - Bureau/agence de planification Metaverse ⭐️ XPaper