
Google's Smart Glasses Strategy med Project Astra och Gemini Live: The New Era of Visual AI Assistance from Google-Image: Xpert.Digital
Smarta glasögon gjorde annorlunda: Googles vision för en ny era av teknik
Paradigmskifte i sikte: Googles sätt till smart AI i vardagen
Google är på tröskeln för en betydande teknisk utveckling inom området bärbar teknik. Den senaste utvecklingen i Gemini Live, i kombination med konkreta planer för nya smarta glasögon, indikerar en kommande paradigmskifte som i grunden kan förändra vårt sätt att interagera med artificiell intelligens. Integrationen av visuella erkännande färdigheter i Gemini lever på smartphones utgör den tekniska grunden för kommande smarta glaslösningar och markerar en strategisk vändpunkt i Googles vision för allestädes närvarande AI -hjälp i vardagen.
Lämplig för detta:
Det andra försöket: Google's Return to the Smart Glasses Market
Googles första försök i det smarta glasögonområdet var över ett decennium. Google Glass, som presenterades 2012 och avbröts för konsumenterna 2015, låg före sin tid på många sätt. Med en vikt på endast 42 gram var glasögonen relativt lätta, men led av praktiska begränsningar såsom en låg batteritid på bara två till tre timmar - tydligt för lite för en produktiv arbetsdag. Dessutom saknades det avgörande elementet vid den tidpunkt då dagens smarta glasögon kunde göra revolutionerande: avancerad generativ AI.
Efter Google Glass kommersiella misslyckande fokuserade företaget på företagsansökningar, men drog sig till stor del från konsumentmarknaden. Under tiden utvecklades själva tekniken kontinuerligt. Övertagandet av North, en tillverkare av Focals Smart Glasses, indikerade redan ett fortsatt intresse för denna produktkategori för några år sedan. De nya smarta glasögonen, som Google nu utvecklar, bör vara betydligt smalare och bekvämare än fokalerna och därmed ta hänsyn till lektionerna från tidigare generationer.
Nuvarande rapporter visar att Google är i förhandlingar med etablerade glasögonstillverkare som Essilorluxottica, som också inkluderar Ray-Ban. Detta strategiska beslut kan hjälpa Google att undvika ett av Google Glass huvudproblem: bristen på fashionabla acceptans. Ray-Ban har redan erfarenhet av smarta solglasögon genom sitt samarbete med Meta. Dessa partnerskap kan vara avgörande för att placera de nya smarta glasögonen som ett modetillbehör istället för som en slående teknikdemonstration.
Lämplig för detta:
- Intelligenta glasögon: Return of Google Glass 2.0? Tillbaka till framtiden med den förstärkta verkligheten laddad
Project Astra: Grunden för Googles visuella AI -assistent
I mitten av Googles smarta glasstrategi är "Project Astra" -an ambitiöst forskningsprojekt för utvecklingen av en universell visuell AI-assistent. Google demonstrerade projektet ASTRA för första gången på I/O -utvecklarkonferensen i maj 2024 och visade en imponerande teknisk demonstration som illustrerade potentialen för visuell AI -hjälp.
I en betydande organisatorisk omstrukturering integrerade Google nyligen teamet bakom Project Astra under taket i Gemini -teamet. Denna sammanslagning understryker den centrala betydelsen av Gemini för Googles vision om smarta glasögon och visar att båda teknologierna betraktas som en del av en enhetlig strategi. Astra -teamet ska arbeta specifikt med live -funktionaliteterna inom Gemini -teamet och därmed ytterligare utöka den visuella komponenten i Gemini.
Den tekniska grunden för projektet Astra har utvecklats anmärkningsvärt. Till skillnad från Google Glass, som var mer vision om framtiden än en mogen produkt för ett decennium sedan, är Project Astra baserat på realistiska tekniska möjligheter som redan finns tillgängliga idag. Demonstrationen på Google I/O visade hur en användare kan titta på sina omgivningar genom smarta glasögon och samtidigt prata om det med en AI -assistent. Det som ansågs önsketänkande för elva år sedan är tekniskt realiserbart idag.
Gemini Live: Bridge mellan smartphone och smarta glasögon
Den senaste utvecklingen inom Gemini Live utgör en avgörande bro mellan de nuvarande smarttelefonapplikationerna och de kommande smarta glasögonen. I mars 2025 tillkännagav Google betydande tillägg för Gemini Live, som framför allt förbättrar AI -assistentens visuella färdigheter.
De nya funktionerna inkluderar Live Video Input och Screen Release, vilket innebär att användare med Gemini kan prata om vad de ser i realtid. Dessa funktioner stöds av Gemini 2.0 Flash, en version av den multimodala modellen, som har varit speciellt optimerad för snabba, mobila applikationer. Från slutet av mars 2025 kommer dessa funktioner för Gemini Advanced -prenumeranter att finnas tillgängliga på Android -enheter som en del av Google One AI -premiumplanen.
Funktionen för dessa nya färdigheter är anmärkningsvärt intuitiv: användare kan peka sin smarttelefonkamera på ett intressant objekt och fråga Gemini direkt. AI-assistenten analyserar videobilden i realtid och ger kontextrelaterad information. Användare kan också släppa sin skärm för Gemini och diskutera vad de ser under smarttelefoninteraktionen med AI -boten.
Dessa funktioner ska inte bara betraktas som isolerade smarttelefonfunktioner, utan snarare som en direkt föregångare till den planerade smarta glasfunktionen. Google själv fastställer tydligt denna anslutning: "Gemini Live med sin visuella komponent är praktiskt taget den yta som Google snart vill använda för smarta glasögon". Den avgörande skillnaden mellan smartphone-applikationen och smarta glasögon består i slutändan bara om visningen av smarttelefonen eller kamerabilden på ett smarta glasögon släpps-basen är tekniskt identisk.
De kommande smarta glasögonen från Google
De nya smarta glasögonen från Google förväntas bli en betydande vidareutveckling jämfört med tidigare experiment. Gemini kommer att fungera som ett centralt element och är ständigt tillgängliga för användare både av ljud och visuellt. Användarens synfält ska släppas permanent för Gemini, vilket innebär att AI -boten praktiskt taget kan interagera med användaren i den verkliga världen.
Som en del av "Gemini Sight" -projektet, som lämnades in för Gemini API-utvecklarkonkurrensen, presenterades koncept för AI-stödda smarta glasögon, vilket kan hjälpa människor i synnerhet blinda och synskadade människor. Dessa revolutionerande AI-drivna smarta glasögon bör integreras sömlöst i Google-tjänster och automatisera en mängd olika uppgifter genom enkla röstkommandon från kalenderhanteringen till att skicka e-post till restaurangreservationer.
En vald cirkel av människor hade redan möjlighet att få praktiska upplevelser med Gemini AI-glasögon. Rapporterna indikerar att glasögonen faktiskt levererar Google Glass -upplevelsen som Google inte kunde inse för över ett decennium sedan. Teknologiska framsteg, särskilt inom området för den generativa AI, gör det möjligt idag, som fortfarande var den framtida musiken vid den tiden.
Integration med Google Services och multimodala färdigheter
En central aspekt av de kommande smarta glasögonen är deras omfattande integration med befintliga Google -tjänster. Gemini kan redan kopplas till många Google -appar och tjänster, inklusive Gmail, Google Drive, Google Docs, Google Maps, YouTube, Google Flights och Google Hotels. Dessa länkar gör det möjligt för assistenten att hitta relevant information snabbare och automatisera komplexa uppgifter.
Gemini lives multimodala färdigheter utvidgas kontinuerligt. Gemini ursprungligen endast tillgängligt på engelska och stöder nu över 45 språk, inklusive tyska. Denna språkliga mångsidighet är ett viktigt steg mot den globala marknadslanseringen av de smarta glasögonen. Möjligheten att ha samtal på upp till två språk på samma enhet och till och med ändra språket mitt i meningen är särskilt anmärkningsvärd.
Gemini Lives visuella färdigheter går långt utöver enkel bildanalys. Användare kan ladda upp foton eller titta på YouTube -videor och prata om det samtidigt med Gemini. Med videor kan Gemini sammanfatta innehållet och svara på frågor om det, till exempel för en produktgranskning på YouTube. Med PDF -filer kan AI inte bara sammanfatta och klargöra frågor, utan till och med skapa frågesporter för att testa användarnas kunskap.
Lämplig för detta:
- Fördelarna med Google AI -läge jämfört med andra AI -sökprodukter som PREPLEXITY AI och OpenAI: s chatgpt -sökning
Marknadspotential och sociala effekter
Marknadspotentialen för AI-baserade smarta glasögon är enorm. Medan Google Glass misslyckades främst på grund av dataskyddsproblem och praktisk tillämpbarhet, kunde integrationen av Gemini delvis övervinna dessa utmaningar. De praktiska ansökningsfallen är olika och sträcker sig från vardagliga hjälpmedel till specialiserade professionella applikationer till hjälpsystem för personer med funktionsnedsättningar.
Ändå förblir viktiga frågor öppna, särskilt inom området för dataskydd. De permanenta delarna av synfältet med AI väcker nya etiska och juridiska frågor som Google måste ta itu med för att uppnå bredare acceptans än på Google Glass. Samarbete med etablerade glasstillverkare kan hjälpa till att göra tekniken mer subtil och socialt acceptabel.
Google är i en intensiv konkurrens med andra teknikföretag inom området utvidgad verklighet. Medan Apple förlitar sig på en mer omfattande XR -lösning med Vision Pro, fokuserar Google på en lättare, mer vardaglig form av förstärkt verklighet med de smarta glasögonen. Google har också meddelat utvecklingen av Android XR, en plattform som är avsedd att stödja både smarta glasögon och mer omfattande VR -glasögon.
Tvillingarna lever som en föregångare av en ny era av mänsklig-ki-interaktion
Integrationen av visuella färdigheter i Gemini Live markerar ett avgörande steg i Googles långsiktiga långsiktiga vision för allmänt AI-hjälp. Det som börjar på smartphones kommer förmodligen att hitta sin topp i de kommande smarta glasögonen. De tekniska grunderna är redan tillgängliga, och Google använder den utbredda distributionen av smartphones som ett testfält för funktioner som senare ska implementeras i smarta glasögon.
Utvecklingen av Gemini Live illustrerar Googles strategiska tillvägagångssätt: Nya AI -funktioner introduceras, testas och optimeras initialt på smartphones innan de integreras i specialiserad hårdvara som smarta glasögon. Detta steg -steg -steg -förfarande kan hjälpa Google att undvika tidigare misstag och utveckla en produkt som är både tekniskt mogen och socialt accepterad.
De kommande månaderna kommer att visa hur snabbt Google kommer att gå från de utökade Gemini Live-funktionerna till smartphones till en fullfjädrad smart glaslösning. Den organisatoriska omstruktureringen med integrationen av projektet ASTRA -teamet i Gemini -teamet indikerar en acceleration av denna utveckling. Med introduktionen av de visuella funktionerna i Gemini Live i slutet av mars 2025 skapas viktiga stiftelser som kommer att bana väg för Googles nästa stora steg i utvecklingen av bärbara AI -tekniker.
Lämplig för detta:
Din globala marknadsförings- och affärsutvecklingspartner
☑ Vårt affärsspråk är engelska eller tyska
☑ Nytt: korrespondens på ditt nationella språk!
Jag är glad att vara tillgänglig för dig och mitt team som personlig konsult.
Du kan kontakta mig genom att fylla i kontaktformuläret eller helt enkelt ringa mig på +49 89 674 804 (München) . Min e -postadress är: Wolfenstein ∂ xpert.digital
Jag ser fram emot vårt gemensamma projekt.