Webbplatsikon Xpert.digital

Googles strategi för smarta glasögon med Project Astra och Gemini Live: Den nya eran av visuell AI-hjälp från Google

Googles strategi för smarta glasögon med Project Astra och Gemini Live: Den nya eran av visuell AI-hjälp från Google

Googles strategi för smarta glasögon med Project Astra och Gemini Live: Den nya eran av visuell AI-hjälp från Google – Bild: Xpert.Digital

Smarta glasögon med en twist: Googles vision för en ny era av teknologi

Paradigmskifte i sikte: Googles väg till smart AI i vardagen

Google står på gränsen till en betydande teknisk utveckling inom bärbar teknik. Den senaste utvecklingen med Gemini Live, i kombination med konkreta planer för nya smarta glasögon, pekar på ett förestående paradigmskifte som fundamentalt kan förändra hur vi interagerar med artificiell intelligens. Integreringen av visuella igenkänningsfunktioner i Gemini Live på smartphones ger den tekniska grunden för framtida smarta glasögonlösningar och markerar en strategisk vändpunkt i Googles vision för allestädes närvarande AI-hjälp i vardagen.

Lämplig för detta:

Det andra försöket: Googles återkomst till marknaden för smarta glasögon

Googles första intåg inom smarta glasögon går tillbaka över ett decennium. Google Glass, som presenterades 2012 och slutade säljas för konsumenter 2015, var före sin tid i många avseenden. Med en vikt på bara 42 gram var glasögonen relativt lätta, men led av praktiska begränsningar som en kort batteritid på bara två till tre timmar – helt klart otillräckligt för en produktiv arbetsdag. Dessutom saknade de den avgörande faktorn som skulle kunna göra dagens smarta glasögon revolutionerande: avancerad generativ AI.

Efter Google Glass kommersiella misslyckande fokuserade företaget på företagsapplikationer och drog sig till stor del tillbaka från konsumentmarknaden. Samtidigt fortsatte tekniken att utvecklas. Googles förvärv av North, en tillverkare av Focal smarta glasögon, för några år sedan indikerade redan ett fortsatt intresse för denna produktkategori. De nya smarta glasögonen som Google nu utvecklar är avsedda att vara betydligt smalare och bekvämare än Focals, och därmed integrera lärdomar från tidigare generationer.

Nyligen rapporterade rapporter tyder på att Google förhandlar med etablerade glasögontillverkare som EssilorLuxottica, som också äger Ray-Ban. Detta strategiska drag skulle kunna hjälpa Google att kringgå ett av huvudproblemen med Google Glass: dess brist på modeacceptans. Ray-Ban har redan erfarenhet av smarta solglasögon genom sitt samarbete med Meta. Dessa partnerskap skulle kunna vara avgörande för att positionera de nya smarta glasögonen som en modeaccessoar snarare än en flashig teknikdemonstration.

Lämplig för detta:

Projekt Astra: Grunden för Googles visuella AI-hjälp

Kärnan i Googles strategi för smarta glasögon är "Project Astra" – ett ambitiöst forskningsprojekt för att utveckla en universell visuell AI-assistent. Google demonstrerade Project Astra för första gången på sin I/O-utvecklarkonferens i maj 2024, där en imponerande teknisk demonstration lyfte fram potentialen hos visuell AI-assistans.

I en betydande organisatorisk omstrukturering integrerade Google nyligen Project Astra-teamet i Gemini-teamet. Denna sammanslagning understryker Gemini's centrala roll i Googles vision för smarta glasögon och visar att båda teknologierna ses som en del av en enhetlig strategi. Inom Gemini kommer Astra-teamet att fokusera specifikt på live-funktioner och vidareutveckla Geminis visuella komponent.

Project Astras tekniska grund är anmärkningsvärt avancerad. Till skillnad från Google Glass, som för ett decennium sedan var mer en futuristisk vision än en mogen produkt, är Project Astra baserad på realistiska tekniker som redan finns tillgängliga idag. Demonstrationen på Google I/O visade hur en användare kan se sin omgivning genom smarta glasögon och samtidigt prata med en AI-assistent om dem. Det som ansågs vara önsketänkande för elva år sedan är nu tekniskt genomförbart.

Gemini Live: Bryggan mellan smartphone och smarta glasögon

De senaste utvecklingarna på Gemini Live utgör en viktig brygga mellan nuvarande smartphone-applikationer och kommande smarta glasögon. I mars 2025 tillkännagav Google betydande förbättringar för Gemini Live, främst för att förbättra AI-assistentens visuella funktioner.

De nya funktionerna inkluderar livevideoinmatning och skärmdelning, vilket gör det möjligt för användare att prata med Gemini om vad de ser i realtid. Dessa funktioner drivs av Gemini 2.0 Flash, en version av den multimodala modellen som är specifikt optimerad för snabba mobilapplikationer. Från och med slutet av mars 2025 kommer dessa funktioner att vara tillgängliga för Gemini Advanced-prenumeranter på Android-enheter som en del av Google One AI Premium-planen.

Sättet som dessa nya funktioner fungerar på är anmärkningsvärt intuitivt: användare kan rikta sin smartphonekamera mot ett intressant objekt och ställa frågor direkt till Gemini om det. AI-assistenten analyserar videobilden i realtid och ger kontextuell information. Användare kan också dela sin skärm med Gemini och diskutera vad de ser medan de interagerar med AI-boten på sin smartphone.

Dessa funktioner bör inte ses som enbart isolerade smarttelefonfunktioner, utan snarare som en direkt föregångare till den planerade funktionen för smarta glasögon. Google själva gör denna koppling tydlig: ”Gemini Live, med sin visuella komponent, är i huvudsak det gränssnitt som Google avser att använda för smarta glasögon inom en snar framtid.” Den avgörande skillnaden mellan smartphone-applikationen och smarta glasögon ligger i slutändan bara i huruvida smarttelefonens skärm eller kamerabilden från smarta glasögon delas – den underliggande tekniken är identisk.

Googles kommande smarta glasögon

Googles nya smarta glasögon förväntas representera ett betydande framsteg jämfört med tidigare försök. Gemini kommer att fungera som det centrala elementet, ständigt tillgängligt för användare via både ljud- och visuell feedback. Användarens synfält kommer att permanent rensas för Gemini, vilket gör att AI-boten kan interagera med användaren virtuellt i den verkliga världen.

Projektet ”Gemini Sight”, som skickades in till Gemini API Developer Competition, presenterade koncept för AI-drivna smarta glasögon som skulle kunna vara särskilt användbara för blinda och synskadade. Dessa revolutionerande AI-drivna smarta glasögon är utformade för att sömlöst integreras med Googles tjänster och automatisera en mängd olika uppgifter genom enkla röstkommandon – från kalenderhantering och att skicka e-post till att göra restaurangbokningar.

En utvald grupp människor har redan haft möjlighet att få praktisk erfarenhet av Gemini AI-glasögonen. Rapporter tyder på att glasögonen faktiskt levererar Google Glass-upplevelsen som Google inte kunde uppnå för över ett decennium sedan. Tekniska framsteg, särskilt inom generativ AI, möjliggör nu det som en gång bara var en önskedröm.

Integration med Googles tjänster och multimodala funktioner

En viktig aspekt av de kommande smarta glasögonen är deras omfattande integration med befintliga Google-tjänster. Gemini kan redan länkas till ett flertal Google-appar och tjänster, inklusive Gmail, Google Drive, Google Docs, Google Maps, YouTube, Google Flights och Google Hotels. Dessa kopplingar gör att assistenten kan hitta relevant information snabbare och automatisera komplexa uppgifter.

Gemini Lives multimodala funktioner expanderar kontinuerligt. Ursprungligen tillgängligt endast på engelska, stöder Gemini Live nu över 45 språk, inklusive tyska. Denna språkliga mångsidighet är ett viktigt steg mot den globala lanseringen av smarta glasögon. Särskilt anmärkningsvärt är möjligheten att föra samtal på upp till två språk på samma enhet och till och med byta språk mitt i en mening.

Gemini Lives visuella möjligheter går långt utöver enkel bildanalys. Användare kan ladda upp foton eller titta på YouTube-videor och samtidigt diskutera dem med Gemini. Med videor kan Gemini sammanfatta innehållet och besvara relaterade frågor, till exempel de som rör en produktrecension på YouTube. Med PDF-filer kan AI:n inte bara sammanfatta och besvara frågor utan också skapa frågesporter för att testa användarnas kunskaper.

Lämplig för detta:

Marknadspotential och samhällspåverkan

Marknadspotentialen för AI-drivna smarta glasögon är enorm. Medan Google Glass misslyckades främst på grund av integritetsproblem och praktisk användbarhet, skulle integrationen av Gemini delvis kunna övervinna dessa utmaningar. Praktiska tillämpningar är mångsidiga, allt från vardagliga hjälpmedel och specialiserade professionella applikationer till hjälpmedelssystem för personer med funktionsnedsättningar.

Ändå kvarstår viktiga frågor, särskilt gällande dataskydd. Att ständigt dela sitt synfält med en AI väcker nya etiska och juridiska frågor som Google måste ta itu med för att uppnå bredare acceptans än med Google Glass. Samarbete med etablerade glasögontillverkare skulle kunna bidra till att göra tekniken mer subtil och socialt acceptabel.

Google konkurrerar intensivt med andra teknikföretag inom området förstärkt verklighet. Medan Apple strävar efter en mer omfattande XR-lösning med sin Vision Pro, fokuserar Google på en lättare, mer vardaglig form av förstärkt verklighet med sina smarta glasögon. Google har också aviserat utvecklingen av Android XR, en plattform avsedd att stödja både smarta glasögon och mer omfattande VR-headset.

Gemini Live som en förebådare för en ny era av interaktion mellan människa och AI

Integreringen av visuella funktioner i Gemini Live markerar ett avgörande steg i Googles långsiktiga vision för allestädes närvarande AI-hjälp. Det som börjar med smartphones förväntas kulminera i kommande smarta glasögon. De tekniska grunderna finns redan på plats, och Google utnyttjar den utbredda användningen av smartphones som en testplats för funktioner som senare kommer att implementeras i smarta glasögon.

Utvecklingen av Gemini Live illustrerar Googles strategiska tillvägagångssätt: Nya AI-funktioner introduceras, testas och optimeras först på smartphones innan de integreras i specialiserad hårdvara som smarta glasögon. Denna etappvisa strategi kan hjälpa Google att undvika tidigare misstag och utveckla en produkt som är både tekniskt mogen och socialt acceptabel.

De kommande månaderna kommer att visa hur snabbt Google övergår från de förbättrade Gemini Live-funktionerna på smartphones till en fullfjädrad smartglasögonlösning. Den organisatoriska omstruktureringen med integrationen av Project Astra-teamet i Gemini-teamet tyder på en acceleration av denna utveckling. Med lanseringen av Gemini Lives visuella funktioner i slutet av mars 2025 kommer avgörande grunder att läggas, vilket banar väg för Googles nästa stora steg i utvecklingen av bärbara AI-tekniker.

Lämplig för detta:

 

Din globala marknadsförings- och affärsutvecklingspartner

☑ Vårt affärsspråk är engelska eller tyska

☑ Nytt: korrespondens på ditt nationella språk!

 

Konrad Wolfenstein

Jag är glad att vara tillgänglig för dig och mitt team som personlig konsult.

Du kan kontakta mig genom att fylla i kontaktformuläret eller helt enkelt ringa mig på +49 89 674 804 (München) . Min e -postadress är: Wolfenstein xpert.digital

Jag ser fram emot vårt gemensamma projekt.

 

 

☑ SME -stöd i strategi, rådgivning, planering och implementering

☑ skapande eller omjustering av den digitala strategin och digitaliseringen

☑ Expansion och optimering av de internationella försäljningsprocesserna

☑ Globala och digitala B2B -handelsplattformar

☑ Pioneer Business Development / Marketing / PR / Measure

Lämna den mobila versionen