Publicerad: 9 mars 2025 / Uppdatering frÄn: 9 mars 2025 - Författare: Konrad Wolfenstein

Google's Smart Glasses Strategy med Project Astra och Gemini Live: The New Era of Visual AI Assistance from Google-Image: Xpert.Digital
Smarta glasögon gjorde annorlunda: Googles vision för en ny era av teknik
Paradigmskifte i sikte: Googles sÀtt till smart AI i vardagen
Google Àr pÄ tröskeln för en betydande teknisk utveckling inom omrÄdet bÀrbar teknik. Den senaste utvecklingen i Gemini Live, i kombination med konkreta planer för nya smarta glasögon, indikerar en kommande paradigmskifte som i grunden kan förÀndra vÄrt sÀtt att interagera med artificiell intelligens. Integrationen av visuella erkÀnnande fÀrdigheter i Gemini lever pÄ smartphones utgör den tekniska grunden för kommande smarta glaslösningar och markerar en strategisk vÀndpunkt i Googles vision för allestÀdes nÀrvarande AI -hjÀlp i vardagen.
LÀmplig för detta:
Det andra försöket: Google's Return to the Smart Glasses Market
Googles första försök i det smarta glasögonomrÄdet var över ett decennium. Google Glass, som presenterades 2012 och avbröts för konsumenterna 2015, lÄg före sin tid pÄ mÄnga sÀtt. Med en vikt pÄ endast 42 gram var glasögonen relativt lÀtta, men led av praktiska begrÀnsningar sÄsom en lÄg batteritid pÄ bara tvÄ till tre timmar - tydligt för lite för en produktiv arbetsdag. Dessutom saknades det avgörande elementet vid den tidpunkt dÄ dagens smarta glasögon kunde göra revolutionerande: avancerad generativ AI.
Efter Google Glass kommersiella misslyckande fokuserade företaget pĂ„ företagsansökningar, men drog sig till stor del frĂ„n konsumentmarknaden. Under tiden utvecklades sjĂ€lva tekniken kontinuerligt. Ăvertagandet av North, en tillverkare av Focals Smart Glasses, indikerade redan ett fortsatt intresse för denna produktkategori för nĂ„gra Ă„r sedan. De nya smarta glasögonen, som Google nu utvecklar, bör vara betydligt smalare och bekvĂ€mare Ă€n fokalerna och dĂ€rmed ta hĂ€nsyn till lektionerna frĂ„n tidigare generationer.
Nuvarande rapporter visar att Google Àr i förhandlingar med etablerade glasögonstillverkare som Essilorluxottica, som ocksÄ inkluderar Ray-Ban. Detta strategiska beslut kan hjÀlpa Google att undvika ett av Google Glass huvudproblem: bristen pÄ fashionabla acceptans. Ray-Ban har redan erfarenhet av smarta solglasögon genom sitt samarbete med Meta. Dessa partnerskap kan vara avgörande för att placera de nya smarta glasögonen som ett modetillbehör istÀllet för som en slÄende teknikdemonstration.
LÀmplig för detta:
- Intelligenta glasögon: Return of Google Glass 2.0? Tillbaka till framtiden med den förstÀrkta verkligheten laddad
Project Astra: Grunden för Googles visuella AI -assistent
I mitten av Googles smarta glasstrategi Àr "Project Astra" -an ambitiöst forskningsprojekt för utvecklingen av en universell visuell AI-assistent. Google demonstrerade projektet ASTRA för första gÄngen pÄ I/O -utvecklarkonferensen i maj 2024 och visade en imponerande teknisk demonstration som illustrerade potentialen för visuell AI -hjÀlp.
I en betydande organisatorisk omstrukturering integrerade Google nyligen teamet bakom Project Astra under taket i Gemini -teamet. Denna sammanslagning understryker den centrala betydelsen av Gemini för Googles vision om smarta glasögon och visar att bÄda teknologierna betraktas som en del av en enhetlig strategi. Astra -teamet ska arbeta specifikt med live -funktionaliteterna inom Gemini -teamet och dÀrmed ytterligare utöka den visuella komponenten i Gemini.
Den tekniska grunden för projektet Astra har utvecklats anmÀrkningsvÀrt. Till skillnad frÄn Google Glass, som var mer vision om framtiden Àn en mogen produkt för ett decennium sedan, Àr Project Astra baserat pÄ realistiska tekniska möjligheter som redan finns tillgÀngliga idag. Demonstrationen pÄ Google I/O visade hur en anvÀndare kan titta pÄ sina omgivningar genom smarta glasögon och samtidigt prata om det med en AI -assistent. Det som ansÄgs önsketÀnkande för elva Är sedan Àr tekniskt realiserbart idag.
Gemini Live: Bridge mellan smartphone och smarta glasögon
Den senaste utvecklingen inom Gemini Live utgör en avgörande bro mellan de nuvarande smarttelefonapplikationerna och de kommande smarta glasögonen. I mars 2025 tillkÀnnagav Google betydande tillÀgg för Gemini Live, som framför allt förbÀttrar AI -assistentens visuella fÀrdigheter.
De nya funktionerna inkluderar Live Video Input och Screen Release, vilket innebÀr att anvÀndare med Gemini kan prata om vad de ser i realtid. Dessa funktioner stöds av Gemini 2.0 Flash, en version av den multimodala modellen, som har varit speciellt optimerad för snabba, mobila applikationer. FrÄn slutet av mars 2025 kommer dessa funktioner för Gemini Advanced -prenumeranter att finnas tillgÀngliga pÄ Android -enheter som en del av Google One AI -premiumplanen.
Funktionen för dessa nya fÀrdigheter Àr anmÀrkningsvÀrt intuitiv: anvÀndare kan peka sin smarttelefonkamera pÄ ett intressant objekt och frÄga Gemini direkt. AI-assistenten analyserar videobilden i realtid och ger kontextrelaterad information. AnvÀndare kan ocksÄ slÀppa sin skÀrm för Gemini och diskutera vad de ser under smarttelefoninteraktionen med AI -boten.
Dessa funktioner ska inte bara betraktas som isolerade smarttelefonfunktioner, utan snarare som en direkt föregÄngare till den planerade smarta glasfunktionen. Google sjÀlv faststÀller tydligt denna anslutning: "Gemini Live med sin visuella komponent Àr praktiskt taget den yta som Google snart vill anvÀnda för smarta glasögon". Den avgörande skillnaden mellan smartphone-applikationen och smarta glasögon bestÄr i slutÀndan bara om visningen av smarttelefonen eller kamerabilden pÄ ett smarta glasögon slÀpps-basen Àr tekniskt identisk.
De kommande smarta glasögonen frÄn Google
De nya smarta glasögonen frÄn Google förvÀntas bli en betydande vidareutveckling jÀmfört med tidigare experiment. Gemini kommer att fungera som ett centralt element och Àr stÀndigt tillgÀngliga för anvÀndare bÄde av ljud och visuellt. AnvÀndarens synfÀlt ska slÀppas permanent för Gemini, vilket innebÀr att AI -boten praktiskt taget kan interagera med anvÀndaren i den verkliga vÀrlden.
Som en del av "Gemini Sight" -projektet, som lÀmnades in för Gemini API-utvecklarkonkurrensen, presenterades koncept för AI-stödda smarta glasögon, vilket kan hjÀlpa mÀnniskor i synnerhet blinda och synskadade mÀnniskor. Dessa revolutionerande AI-drivna smarta glasögon bör integreras sömlöst i Google-tjÀnster och automatisera en mÀngd olika uppgifter genom enkla röstkommandon frÄn kalenderhanteringen till att skicka e-post till restaurangreservationer.
En vald cirkel av mÀnniskor hade redan möjlighet att fÄ praktiska upplevelser med Gemini AI-glasögon. Rapporterna indikerar att glasögonen faktiskt levererar Google Glass -upplevelsen som Google inte kunde inse för över ett decennium sedan. Teknologiska framsteg, sÀrskilt inom omrÄdet för den generativa AI, gör det möjligt idag, som fortfarande var den framtida musiken vid den tiden.
Integration med Google Services och multimodala fÀrdigheter
En central aspekt av de kommande smarta glasögonen Àr deras omfattande integration med befintliga Google -tjÀnster. Gemini kan redan kopplas till mÄnga Google -appar och tjÀnster, inklusive Gmail, Google Drive, Google Docs, Google Maps, YouTube, Google Flights och Google Hotels. Dessa lÀnkar gör det möjligt för assistenten att hitta relevant information snabbare och automatisera komplexa uppgifter.
Gemini lives multimodala fÀrdigheter utvidgas kontinuerligt. Gemini ursprungligen endast tillgÀngligt pÄ engelska och stöder nu över 45 sprÄk, inklusive tyska. Denna sprÄkliga mÄngsidighet Àr ett viktigt steg mot den globala marknadslanseringen av de smarta glasögonen. Möjligheten att ha samtal pÄ upp till tvÄ sprÄk pÄ samma enhet och till och med Àndra sprÄket mitt i meningen Àr sÀrskilt anmÀrkningsvÀrd.
Gemini Lives visuella fÀrdigheter gÄr lÄngt utöver enkel bildanalys. AnvÀndare kan ladda upp foton eller titta pÄ YouTube -videor och prata om det samtidigt med Gemini. Med videor kan Gemini sammanfatta innehÄllet och svara pÄ frÄgor om det, till exempel för en produktgranskning pÄ YouTube. Med PDF -filer kan AI inte bara sammanfatta och klargöra frÄgor, utan till och med skapa frÄgesporter för att testa anvÀndarnas kunskap.
LÀmplig för detta:
- Fördelarna med Google AI -lÀge jÀmfört med andra AI -sökprodukter som PREPLEXITY AI och OpenAI: s chatgpt -sökning
Marknadspotential och sociala effekter
Marknadspotentialen för AI-baserade smarta glasögon Àr enorm. Medan Google Glass misslyckades frÀmst pÄ grund av dataskyddsproblem och praktisk tillÀmpbarhet, kunde integrationen av Gemini delvis övervinna dessa utmaningar. De praktiska ansökningsfallen Àr olika och strÀcker sig frÄn vardagliga hjÀlpmedel till specialiserade professionella applikationer till hjÀlpsystem för personer med funktionsnedsÀttningar.
ĂndĂ„ förblir viktiga frĂ„gor öppna, sĂ€rskilt inom omrĂ„det för dataskydd. De permanenta delarna av synfĂ€ltet med AI vĂ€cker nya etiska och juridiska frĂ„gor som Google mĂ„ste ta itu med för att uppnĂ„ bredare acceptans Ă€n pĂ„ Google Glass. Samarbete med etablerade glasstillverkare kan hjĂ€lpa till att göra tekniken mer subtil och socialt acceptabel.
Google Àr i en intensiv konkurrens med andra teknikföretag inom omrÄdet utvidgad verklighet. Medan Apple förlitar sig pÄ en mer omfattande XR -lösning med Vision Pro, fokuserar Google pÄ en lÀttare, mer vardaglig form av förstÀrkt verklighet med de smarta glasögonen. Google har ocksÄ meddelat utvecklingen av Android XR, en plattform som Àr avsedd att stödja bÄde smarta glasögon och mer omfattande VR -glasögon.
Tvillingarna lever som en föregÄngare av en ny era av mÀnsklig-ki-interaktion
Integrationen av visuella fÀrdigheter i Gemini Live markerar ett avgörande steg i Googles lÄngsiktiga lÄngsiktiga vision för allmÀnt AI-hjÀlp. Det som börjar pÄ smartphones kommer förmodligen att hitta sin topp i de kommande smarta glasögonen. De tekniska grunderna Àr redan tillgÀngliga, och Google anvÀnder den utbredda distributionen av smartphones som ett testfÀlt för funktioner som senare ska implementeras i smarta glasögon.
Utvecklingen av Gemini Live illustrerar Googles strategiska tillvÀgagÄngssÀtt: Nya AI -funktioner introduceras, testas och optimeras initialt pÄ smartphones innan de integreras i specialiserad hÄrdvara som smarta glasögon. Detta steg -steg -steg -förfarande kan hjÀlpa Google att undvika tidigare misstag och utveckla en produkt som Àr bÄde tekniskt mogen och socialt accepterad.
De kommande mÄnaderna kommer att visa hur snabbt Google kommer att gÄ frÄn de utökade Gemini Live-funktionerna till smartphones till en fullfjÀdrad smart glaslösning. Den organisatoriska omstruktureringen med integrationen av projektet ASTRA -teamet i Gemini -teamet indikerar en acceleration av denna utveckling. Med introduktionen av de visuella funktionerna i Gemini Live i slutet av mars 2025 skapas viktiga stiftelser som kommer att bana vÀg för Googles nÀsta stora steg i utvecklingen av bÀrbara AI -tekniker.
LÀmplig för detta:
Â
Din globala marknadsförings- och affÀrsutvecklingspartner
â VĂ„rt affĂ€rssprĂ„k Ă€r engelska eller tyska
â Nytt: korrespondens pĂ„ ditt nationella sprĂ„k!
Â
Jag Àr glad att vara tillgÀnglig för dig och mitt team som personlig konsult.
Du kan kontakta mig genom att fylla i kontaktformulĂ€ret eller helt enkelt ringa mig pĂ„ +49 89 674 804 (MĂŒnchen) . Min e -postadress Ă€r: Wolfenstein â xpert.digital
Jag ser fram emot vÄrt gemensamma projekt.
Â
Â