
Google Smart Glasses Prototyp med Gemini-AI vid TED-konferensen "Humanity Reimagined" presenterad i Vancouver-Image: Xpert.Digital
Googles smarta glasögon av nästa generation: En titt på framtiden
Googles smarta glasögon med display- och Gemini -funktioner: En ny era med utökad verklighet
Google presenterade nyligen en avancerad prototyp av sina nya smarta glasögon med integrerad display och Gemini AI -funktioner på TED -konferensen "Humanity Reimagined" i Vancouver, Kanada. TED2025 -konferensen ägde rum från 7 till 11 april 2025. Denna presentation markerar en betydande framsteg i Googles AR -strategi och kan grundläggande förändra hur vi interagerar med digital information i vardagen. Efter det kommersiella misslyckandet av det ursprungliga Google Glass återvänder företaget med en mer tekniskt mogen och vardaglig lösning som kombinerar imponerande AI -funktioner med en iögonfallande design.
Lämplig för detta:
- Googles Smart Glasses -strategi med Project Astra och Gemini Live: The New Era of Googles Visual AI Assistant
Design och hårdvara för de nya smarta glasögonen
De smarta glasögonen från Google som presenteras vid TED -konferensen kännetecknas av en anmärkningsvärd, nästan konventionell brilledesign. Till skillnad från den slående första generationen av Google Glass är de nya smarta glasögonen knappast urskiljbara från normala glasögon vid första anblicken. Glasögonen har en svart ram och är väldigt enkelt trots den integrerade tekniken, vilket indikerar ett väl genomtänkt hårdvarukoncept.
En väsentlig designfunktion är nära integration med användarens smartphone. Shahram Izadi, chef för Android XR på Google, förklarade under demonstrationen: "Detta glasögon fungerar med din smartphone, strömmar fram och tillbaka innehåll och gör att glasögonen kan vara mycket lätta och kan komma åt alla dina mobiltelefonappar". Denna arkitektur representerar en grundläggande skillnad för det ursprungliga Google Glass -konceptet, där försök gjordes för att integrera så mycket hårdvara som möjligt i själva glasögonen.
De tekniska specifikationerna tillkännagavs inte i detalj under demonstrationen. Det bekräftades emellertid att glasögonen har en miniatyrdisplay som information kan projiceras på. En kamera är också integrerad för olika funktioner som detektering av objekt och miljöer. Det finns också en mikrofon för att acceptera röstkommandon och möjliggöra kommunikation med Gemini AI -assistenten.
Teknisk integration och lätt design
Den avgörande tekniska framstegen som möjliggör den kompakta designen ligger i att flytta datorkraft. På grund av den ständiga anslutningen mellan smartphone och glasögon såväl som den permanenta molnanslutningen kan nästan all teknik flyttas till smarttelefonen. Glasögonen själva behöver huvudsakligen en kamera, en mikrofon och visningsteknologi, vilket leder till en mycket lättare och mer diskret design än i tidigare försök inom AR -glasögonen.
Gemini-ki som hjärtat i smarta glasögon
Det centrala elementet, som skiljer de nya Google Smart Glasses från tidigare AR -glasögon, är integrationen av Googles avancerade AI -modell Gemini. AI -funktionerna implementeras på de smarta glasögonen under namnet "Gemini Live", en version som var speciellt optimerad för interaktionen i realtid.
Gemini verkar i de smarta glasögonen som en konstant följeslagare, som kan aktiveras av naturliga röstkommandon och får åtkomst till visuell och hörsel kontextinformation. AI kan "se" och "förstå" användarens miljö, vilket möjliggör helt nya typer av interaktion. På grund av den senaste utvidgningen av Gemini live efter kamera och visningsutgivningsfunktioner såväl som "Talk om" -funktionen, som möjliggör samtal om bilder eller videor, har Google redan etablerat de tekniska grunderna för smarta glasögon på smartphones.
Gemini är integrerad i smarta glasögon via Android XR -plattformen, som var speciellt utvecklad för XR -enheter (utökad verklighet). Google beskriver Android XR som "en öppen, enhetlig plattform för XR -headset och glasögon", vilket bör erbjuda användare "mer urval av enheter och åtkomst till appar som de redan känner och älskar".
Lämplig för detta:
- Xpert -studie på "Marknaden för smarta glasögon" - Analys av marknadspenetration, konkurrens och framtida trender
Visade funktioner och tillämpningsområden
Under TED -presentationen visade Shahram Izadi och Nishta Bathia, produktchef för Glasses & AI på Google, flera imponerande funktioner i smarta glasögon.
Minnesfunktion: den digitala minnesassistenten
En särskilt markerad funktion är "minne" (minne), där Gemini använder den integrerade kameran för att följa vad som händer runt användaren och kan komma ihåg var vardagliga objekt lagrades. I demonstrationen frågade Bathia Gemini: "Vet du var jag äntligen satte kortet?", Där Ki svarade: "Hotellkartan ligger till vänster om skivan" och på glasögonen på hyllan bakom det.
Denna funktion använder ett "rullande sammanhangsfönster, där AI kommer ihåg vad du ser utan att behöva berätta för henne vad hon ska leta efter". Detta representerar betydande framsteg i den kontextuella uppfattningen av AI -system och kan avsevärt förenkla vardagliga problem som att söka efter lagrade objekt.
Real -Time -översättning och ordbehandling
En annan demonstrerad funktion är den verkliga översättningen, där smarta glasögon kan spela in, översätta eller transkribera konversationer i realtid. Izadi utförde en live -översättning från Farsi till engelska, med översättningen som undertexter på visningen av glasögonen. Översättningen till andra språk som hindi nämndes också.
Glasögonen kan också skanna och bearbeta texter, vilket demonstrerades genom att skanna en bok under presentationen. Dessa funktioner kan vara till stor nytta, särskilt för internationella resor, flerspråkiga arbetsmiljöer eller när man studerar främmande språktexter.
Kreativa och praktiska vardagliga funktioner
Vid presentationen visades också skrivandet av en haiku -dikt, vilket illustrerar de kreativa möjligheterna med AI -integration. Dessutom kan glasögonen fungera som ett navigationshjälpmedel, som Google visar i sin blogg. Gemini-KI kan visa ruttförslag direkt i användarens synfält och därmed underlätta navigering i okända miljöer.
Gemini-siktglasögonen bör göra det möjligt att automatisera många vardagliga uppgifter via enkla röstkommandon-från att hantera kalendern till att skicka e-post till att skriva dokument eller reservera ett bord i en närliggande restaurang.
Android XR: Det nya operativsystemet för XR -enheter
De smarta glasögonen är baserade på Android XR, ett nytt operativsystem som Google tillkännagav i december 2024. Android XR utvecklades speciellt för XR -enheter och är avsedd att erbjuda en enhetlig plattform för olika typer av AR- och VR -hårdvara.
Samarbete med Samsung och expansion av XR -ekosystemet
Google utvecklar Android XR i samarbete med Samsung, vilket indikerar ett bredare industriellt stöd för det nya ekosystemet. Förutom de smarta glasögonen presenterades också ett blandat reality -headset som heter "Project Moohan" vid TED -konferensen, som också är baserad på Android XR och utvecklades i samarbete med Samsung.
Det blandade reality -headsetet använder passhrough videoteknologi "för att skapa en sömlös överlägg av den verkliga och virtuella världen". Det är mycket mer chunky än de smarta glasögonen och syftar till mer intensiva upplevelser av blandade verklighet, medan glasögonen är utformade för användning hela dagen.
Utvecklarplattform och appens ekosystem
Android XR bör göra det möjligt för utvecklare att skapa applikationer för olika XR -enheter med bekanta Android -verktyg. För utvecklare bör den erbjuda en enhetlig plattform med möjligheter "att utveckla upplevelser för ett brett utbud av enheter med bekanta Android -verktyg och ramverk". Med denna strategi kunde Google snabbt bygga upp ett omfattande app-ekosystem för sina XR-enheter, eftersom utvecklare kan använda sin befintliga Android-kunskap.
Lämplig för detta:
Marknadsperspektiv och framtidsutsikter
Även om Google inte tillkännagav ett officiellt släppdatum för de smarta glasögonen under TED -presentationen, tyder olika indikationer på att en marknadslansering kanske inte är långt borta. Den sydkoreanska nyhetsportalen Etnews rapporterade nyligen att en produkt med kodfröet "Haan" fortfarande är planerad till i år och att funktionerna och specifikationerna för närvarande slutförs.
Mediefrågor och praktiska upplevelser
Det faktum att Google redan har gjort en 20-minuters praktisk med de nya glasögonen indikerar ett avancerat utvecklingsstadium. De första reaktionerna var positiva och det verkar finnas en viss entusiasm för tekniken. Det kan ses mellan linjerna som Google redan har meddelat produkten inofficiellt och att den officiella presentationen inte bör vara långt borta.
Positionering på den växande AR -marknaden
Jämfört med tävlingen, särskilt Ray-Ban Meta Smart Glasses, som redan finns på marknaden, verkar Google sträva efter en teknisk ledning med integrationen av avancerade AI-funktioner och en skärm. Ray-Ban Meta-smarta glasögon har ingen skärm, som begränsar interaktionsalternativen.
Kombinationen av iögonfallande design, kraftfull AI och praktiska vardagliga funktioner kan ge Google en konkurrensfördel och omdefiniera marknaden för AR -glasögon. I synnerhet kan djup integration med Android -ekosystemet och Google Services vara ett övertygande argument för många användare.
Google Gemini -funktioner: En milstolpe för utvidgad verklighet
Presentationen av de nya Google Smart Glasses med en skärm och Gemini -funktioner vid TED -konferensen markerar en viktig milstolpe i utvecklingen av Augmented Reality Technologies. Efter det misslyckade första försöket med Google Glass verkar företaget ha dragit lärorna från det förflutna och nu presenterar en produkt som är mer tekniskt mogen och samtidigt mer socialt acceptabelt.
Den iögonfallande designen, den nära integrationen med smarttelefonen och de kraftfulla AI -funktionerna kan hjälpa till att hitta denna nya generation av smarta glasögonbredd. Funktioner som "minne", verklig översättning och navigering erbjuder specifikt mervärde i vardagen.
Utvecklingen av Android XR som en enhetlig plattform för olika XR-enheter och samarbetet med Samsung indikerar Googles långsiktiga strategi för att bygga ett omfattande ekosystem för utvidgad verklighet. I detta ekosystem kan olika enheter - från lätta glas till kraftfulla headset - arbeta sömlöst tillsammans och därmed möjliggöra helt nya typer av interaktion med digitalt innehåll.
Även om frågor om den exakta marknadslanseringen, pris- och batteritiden fortfarande är öppna, tyder de hittills framstegen på att Google har tagit ett viktigt steg mot framtiden för den utvidgade verkligheten med dessa smarta glasögon. Det återstår att se hur denna teknik kommer att utvecklas och vilka nya applikationsområden kommer att resultera.
Lämplig för detta:
Din globala marknadsförings- och affärsutvecklingspartner
☑ Vårt affärsspråk är engelska eller tyska
☑ Nytt: korrespondens på ditt nationella språk!
Jag är glad att vara tillgänglig för dig och mitt team som personlig konsult.
Du kan kontakta mig genom att fylla i kontaktformuläret eller helt enkelt ringa mig på +49 89 674 804 (München) . Min e -postadress är: Wolfenstein ∂ xpert.digital
Jag ser fram emot vårt gemensamma projekt.