Publicado el 22 de abril de 2025 / Actualización del: 22 de abril de 2025 - Autor: Konrad Wolfenstein

Prototipo de gafas inteligentes de Google con Gemini-AI en la Conferencia TED "Humanity Reimagined" presentada en Vancouver-Image: xpert.digital
Las gafas inteligentes de Google de la próxima generación: una mirada al futuro
Las gafas inteligentes de Google con la pantalla y las características de Géminis: una nueva era de realidad expandida
Google presentó recientemente un prototipo avanzado de sus nuevas gafas inteligentes con funciones integradas de exhibición y IA de Gemini en la Conferencia TED "Humanity Reimagined" en Vancouver, Canadá. La conferencia TED2025 tuvo lugar del 7 al 11 de abril de 2025. Esta presentación marca un progreso significativo en la estrategia AR de Google y podría cambiar fundamentalmente la forma en que interactuamos con la información digital en la vida cotidiana. Después de la falla comercial de Google Glass original, la compañía regresa con una solución más tecnológicamente madura y cotidiana que combina impresionantes funciones de IA con un diseño discreto.
Adecuado para:
- La estrategia de gafas inteligentes de Google con Project Astra y Gemini Live: la nueva era del asistente de IA visual de Google
Diseño y hardware de las nuevas gafas inteligentes
Las gafas inteligentes de Google presentadas en la Conferencia TED se caracterizan por un diseño de brille notable, casi convencional. A diferencia de la sorprendente primera generación de Google Glass, las nuevas gafas inteligentes apenas se distinguen de las gafas normales a primera vista. Las gafas tienen un marco negro y es muy fácil a pesar de la tecnología integrada, lo que indica un concepto de hardware bien pensado.
Una característica de diseño esencial es una estrecha integración con el teléfono inteligente del usuario. Shahram Izadi, jefe de Android XR en Google, explicó durante la demostración: "Esta gafas funcionan con su teléfono inteligente, transmite contenido de ida y vuelta y permite que las gafas sean muy ligeras y pueden acceder a todas las aplicaciones de sus teléfonos celulares". Esta arquitectura representa una diferencia fundamental en el concepto original de Google Glass, en el que se hicieron intentos para integrar la mayor cantidad de hardware posible en las gafas en sí.
Las especificaciones técnicas no se anunciaron en detalle durante la demostración. Sin embargo, se confirmó que las gafas tienen una pantalla en miniatura en la que se puede proyectar información. Una cámara también está integrada para varias funciones, como la detección de objetos y entornos. También hay un micrófono para aceptar comandos de voz y permitir la comunicación con el Asistente de AI de Gemini.
Integración tecnológica y diseño liviano
El progreso tecnológico crucial que permite el diseño compacto radica en reubicar la potencia informática. Debido a la conexión constante entre el teléfono inteligente y las gafas, así como la conexión de la nube permanente, casi toda la tecnología se puede mover al teléfono inteligente. Las gafas en sí mismas necesitan principalmente una cámara, un micrófono y tecnología de pantalla, lo que conduce a un diseño mucho más ligero y discreto que en los intentos anteriores en el segmento de gafas AR.
Gemini-ki como el corazón de las gafas inteligentes
El elemento central, que distingue las nuevas gafas inteligentes de Google de las gafas AR anteriores, es la integración del modelo AI avanzado de Google Gemini. Las funciones de IA se implementan en las gafas inteligentes con el nombre de "Gemini Live", una versión que fue especialmente optimizada para la interacción en tiempo real.
Gemini actúa en las gafas inteligentes como un compañero constante, que puede activarse mediante comandos de voz natural y accede a la información de contexto visual y auditiva. La IA puede "ver" y "comprender" el entorno del usuario, lo que permite tipos de interacción completamente nuevos. Debido a la reciente expansión de Gemini Live by Camera y las funciones de lanzamiento de la pantalla, así como la función "hablar sobre", que permite conversaciones sobre imágenes o videos, Google ya ha establecido las bases tecnológicas para las gafas inteligentes en los teléfonos inteligentes.
Gemini está integrado en las gafas inteligentes a través de la plataforma Android XR, que se desarrolló especialmente para dispositivos XR (realidad extendida). Google describe a Android XR como "una plataforma abierta y uniforme para auriculares y gafas XR", lo que debería ofrecer a los usuarios "más selección de dispositivos y acceso a aplicaciones que ya conocen y aman".
Adecuado para:
- Estudio Xpert sobre "El mercado de gafas inteligentes" - Análisis de la penetración del mercado, la competencia y las tendencias futuras
Funciones y áreas de aplicación mostradas
Durante la presentación de TED, Shahram Izadi y Nishta Bathia, gerente de productos de Glasses & AI en Google, demostraron varias funciones impresionantes de las gafas inteligentes.
Función de memoria: el asistente de memoria digital
Una función particularmente resaltada es la "memoria" (memoria), en la que Gemini usa la cámara integrada para seguir lo que está sucediendo alrededor del usuario y puede recordar dónde se almacenan los objetos cotidianos. En la demostración, Bathia Gemini preguntó: "¿Sabes dónde finalmente puse la tarjeta?", Donde el Ki respondió: "El mapa del hotel se encuentra a la izquierda del disco" y en las gafas en el estante detrás de él.
Esta función utiliza una "ventana de contexto rodante, en la que la IA recuerda lo que ves sin tener que decirle qué tener en cuenta". Esto representa un progreso significativo en la percepción contextual de los sistemas de IA y podría simplificar significativamente los problemas cotidianos, como la búsqueda de objetos puestos.
Traducción de tiempo real y procesamiento de textos
Otra función demostrada es la traducción de tiempo real, en la que las gafas inteligentes pueden grabar, traducir o transcribir conversaciones en tiempo real. Izadi realizó una traducción en vivo de Farsi al inglés, con la traducción como un subtítulo en la exhibición de las gafas. También se mencionó la traducción a otros idiomas como el hindi.
Las gafas también pueden escanear y procesar textos, lo que se demostró escaneando un libro durante la presentación. Estas funciones podrían ser de gran utilidad, especialmente para viajes internacionales, entornos de trabajo multilingües o al estudiar textos de idiomas extranjeros.
Funciones creativas y prácticas cotidianas
En la presentación, también se mostró la escritura de un poema haiku, lo que ilustra las posibilidades creativas de la integración de IA. Además, las gafas pueden actuar como una ayuda de navegación, como Google muestra en su blog. El Gemini-Ki puede mostrar sugerencias de ruta directamente en el campo de visión del usuario y, por lo tanto, facilitar la navegación en entornos desconocidos.
Las gafas de vista Géminis deben hacer que sea automatizar numerosas tareas cotidianas a través de simples comandos de voz, desde la gestión del calendario para enviar correos electrónicos a escribir documentos o reservar una mesa en un restaurante cercano.
Android XR: el nuevo sistema operativo para dispositivos XR
Las gafas inteligentes presentadas se basan en Android XR, un nuevo sistema operativo que Google anunció en diciembre de 2024. Android XR se desarrolló especialmente para dispositivos XR y está destinado a ofrecer una plataforma uniforme para diferentes tipos de hardware AR y VR.
Cooperación con Samsung y la expansión del ecosistema XR
Google desarrolla Android XR en cooperación con Samsung, lo que indica un soporte industrial más amplio para el nuevo ecosistema. Además de las gafas inteligentes, también se presentó un auricular de realidad mixta llamado "Proyecto Moohan" en la Conferencia TED, que también se basa en Android XR y se desarrolló en asociación con Samsung.
Los auriculares de realidad mixta usan la tecnología de video HassHrough "para crear una superposición perfecta del mundo real y virtual". Es mucho más grueso que las gafas inteligentes y apunta a experiencias de realidad mixta más intensiva, mientras que las gafas están diseñadas para el uso de todo el día.
Plataforma de desarrollador y ecosistema de aplicaciones
Android XR debe permitir a los desarrolladores crear aplicaciones para varios dispositivos XR con herramientas familiares de Android. Para los desarrolladores, debe ofrecer una plataforma uniforme con posibilidades "para desarrollar experiencias para una amplia gama de dispositivos con herramientas y marcos de Android familiares". Con esta estrategia, Google podría construir rápidamente un extenso ecosistema de aplicaciones para sus dispositivos XR, ya que los desarrolladores pueden usar su conocimiento existente de Android.
Adecuado para:
Perspectivas del mercado y perspectivas futuras
Aunque Google no anunció una fecha de lanzamiento oficial para las gafas inteligentes durante la presentación de TED, varias indicaciones indican que un lanzamiento del mercado puede no estar muy lejos. El portal de noticias de Corea del Sur, Etnews, informó recientemente que un producto con la semilla del coden "Haean" todavía está programado para este año y que las características y especificaciones se están finalizando actualmente.
Reacciones de los medios y experiencias prácticas
El hecho de que Google ya haya hecho una práctica de 20 minutos con las nuevas gafas indica una etapa avanzada de desarrollo. Las primeras reacciones fueron positivas y parece haber un cierto entusiasmo por la tecnología. Se puede ver entre las líneas que Google ya ha anunciado el producto de manera no oficial y que la presentación oficial no debería estar muy lejos.
Posicionamiento en el creciente mercado de AR
En comparación con la competencia, especialmente las gafas Meta Smart de Ray-Ban, que ya están en el mercado, Google parece estar apuntando a un plomo tecnológico con la integración de funciones de IA avanzadas y una pantalla. Las gafas Ray-Ban Meta Smart no tienen una pantalla, lo que limita las opciones de interacción.
La combinación de un diseño discreto, una poderosa IA y funciones prácticas cotidianas podría darle a Google una ventaja competitiva y redefinir el mercado de las gafas AR. En particular, la integración profunda con el ecosistema de Android y los servicios de Google podría ser un argumento convincente para muchos usuarios.
Características de Google Gemini: un hito para la realidad ampliada
La presentación de las nuevas gafas inteligentes de Google con una pantalla y características de Géminis en la conferencia TED marca un hito importante en el desarrollo de tecnologías de realidad aumentada. Después del primer intento fallido con Google Glass, la compañía parece haber trazado las enseñanzas del pasado y ahora presenta un producto que es más tecnológicamente maduro y, al mismo tiempo, es más aceptable socialmente.
El diseño discreto, la estrecha integración con el teléfono inteligente y las potentes funciones de IA podrían ayudar a encontrar esta nueva generación de gafas inteligentes. Las funciones como "memoria", traducción y navegación de tiempo real ofrecen un valor agregado específico en la vida cotidiana.
El desarrollo de Android XR como una plataforma uniforme para varios dispositivos XR y la cooperación con Samsung indica la estrategia a largo plazo de Google para construir un ecosistema integral para la realidad ampliada. En este ecosistema, diferentes dispositivos, desde gafas livianas hasta auriculares potentes, podrían funcionar sin problemas y, por lo tanto, permitir tipos completamente nuevos de interacción con el contenido digital.
Aunque las preguntas sobre el lanzamiento exacto del mercado, el precio y la duración de la batería aún están abiertos, el progreso que se muestra hasta ahora sugiere que Google ha dado un paso importante hacia el futuro de la realidad ampliada con estas gafas inteligentes. Queda por ver cómo se desarrollará esta tecnología y qué nuevas áreas de aplicación resultarán.
Adecuado para:
Su socio global de marketing y desarrollo empresarial
☑️ Nuestro idioma comercial es inglés o alemán.
☑️ NUEVO: ¡Correspondencia en tu idioma nacional!
Estaré encantado de servirle a usted y a mi equipo como asesor personal.
Puedes ponerte en contacto conmigo rellenando el formulario de contacto o simplemente llámame al +49 89 89 674 804 (Múnich) . Mi dirección de correo electrónico es: wolfenstein ∂ xpert.digital
Estoy deseando que llegue nuestro proyecto conjunto.