Opublikowano: 22 kwietnia 2025 / Aktualizacja od: 22 kwietnia 2025 r. - Autor: Konrad Wolfenstein
Google Smart Glasses Prototyp z Gemini-AI na konferencji TED „Rzeczyństwo ponownie” zaprezentowane w Vancouver-Image: xpert.digital
Inteligentne okulary Google następnej generacji: spojrzenie w przyszłość
Inteligentne okulary Google z funkcjami wyświetlania i gemini: nowa era rozszerzonej rzeczywistości
Google niedawno zaprezentował zaawansowany prototyp swoich nowych inteligentnych okularów ze zintegrowanymi funkcjami AI wyświetlania i Gemini AI na konferencji TED „Znamiona ludzkość” w Vancouver w Kanadzie. Konferencja TED2025 odbyła się od 7 do 11 kwietnia 2025 r. Ta prezentacja oznacza znaczny postęp w strategii AR Google i może zasadniczo zmienić sposób interakcji z informacjami cyfrowymi w życiu codziennym. Po komercyjnej awarii oryginalnego Google Glass firma powraca z bardziej dojrzałym technologicznie i codziennym rozwiązaniem, które łączy imponujące funkcje AI z niepozornym projektem.
Nadaje się do:
- Strategia Google Smart Glasses z projektem Astra i Gemini Live: The New Era of Google's Visual AI Assistant
Projektowanie i sprzęt nowych inteligentnych okularów
Inteligentne okulary z Google zaprezentowane na konferencji TED charakteryzują się niezwykłym, niemal konwencjonalnym projektem brilli. W przeciwieństwie do uderzającej pierwszej generacji Google Glass, nowe inteligentne okulary nie są odróżniające od normalnych okularów na pierwszy rzut oka. Szklanki mają czarną ramę i są bardzo łatwe pomimo zintegrowanej technologii, która wskazuje na dobrze przemyślaną koncepcję sprzętu.
Niezbędną funkcją projektu jest ścisła integracja ze smartfonem użytkownika. Shahram Izadi, szef Androida XR w Google, wyjaśnił podczas demonstracji: „Te okulary działają ze smartfonem, strumieniowe treści tam iz powrotem i umożliwia okulary były bardzo lekkie i mogą uzyskać dostęp do wszystkich aplikacji telefonu komórkowego”. Architektura ta stanowi fundamentalną różnicę w pierwotnej koncepcji Google Glass, w której podjęto próby zintegrowania jak największej ilości sprzętu z samymi okularami.
Specyfikacje techniczne nie zostały szczegółowo ogłoszone podczas demonstracji. Potwierdzono jednak, że okulary mają miniaturowy wyświetlacz, na który można rzutować informacje. Kamera jest również zintegrowana dla różnych funkcji, takich jak wykrywanie obiektów i środowisk. Istnieje również mikrofon akceptujący polecenia głosowe i umożliwia komunikację z asystentem AI Gemini AI.
Integracja technologiczna i lekki projekt
Kluczowy postęp technologiczny, który umożliwia kompaktową konstrukcję, polega na przeniesieniu mocy obliczeniowej. Ze względu na stałe połączenie między smartfonem a szklankami, a także stałym połączeniem w chmurze, prawie cała technologia można przenieść do smartfona. Same okulary potrzebują głównie aparatu, mikrofonu i technologii wyświetlania, co prowadzi do znacznie lżejszej i bardziej dyskretnej konstrukcji niż w poprzednich próbach w segmencie okularów AR.
Gemini-ki jako serce inteligentnych okularów
Centralnym elementem, który odróżnia nowe okulary Google Smart od poprzednich okularów AR, jest integracja zaawansowanego modelu AI Google. Funkcje AI są zaimplementowane na inteligentnych okularach pod nazwą „Gemini Live”, wersja specjalnie zoptymalizowana pod kątem interakcji w czasie rzeczywistym.
Bliźnięta działa w inteligentnych okularach jako stały towarzysz, który może być aktywowany przez naturalne polecenia głosowe i uzyskuje dostęp do informacji o kontekście wizualnym i słuchowym. AI może „zobaczyć” i „zrozumieć” środowisko użytkownika, które umożliwia zupełnie nowe rodzaje interakcji. Ze względu na niedawne rozszerzenie funkcji wersji Camera i Display na żywo Gemini na żywo, a także funkcję „Talk About”, która umożliwia rozmowy na temat zdjęć lub filmów, Google już ustanowiło fundamenty technologiczne inteligentnych okularów na smartfonach.
Bliźnięta jest zintegrowane z inteligentnymi okularami za pośrednictwem platformy Android XR, która została specjalnie opracowana dla urządzeń XR (rozszerzona rzeczywistość). Google opisuje Android XR jako „otwartą, jednolitą platformę zestawów słuchawkowych i okularów XR”, która powinna oferować użytkownikom „większy wybór urządzeń i dostęp do aplikacji, które już znają i kochają”.
Nadaje się do:
- Badanie Xpert na temat „Rynek inteligentnych okularów” - analiza penetracji rynku, konkurencji i przyszłych trendów
Pokazane funkcje i obszary zastosowania
Podczas prezentacji TED Shahram Izadi i Nishta Bathia, menedżer produktu ds. Szklanek i sztucznej inteligencji w Google, wykazali kilka imponujących funkcji inteligentnych okularów.
Funkcja pamięci: Asystent pamięci cyfrowej
Szczególnie podświetloną funkcją jest „pamięć” (pamięć), w której Gemini używa zintegrowanej kamery do śledzenia tego, co dzieje się wokół użytkownika, i pamięta, gdzie przechowywane były obiekty codzienne. Podczas demonstracji Bathia Gemini zapytała: „Czy wiesz, gdzie w końcu umieściłem kartę?”, Gdzie KI odpowiedział: „Mapa hotelowa znajduje się po lewej stronie rekordu” i na szklankach na półce.
Ta funkcja wykorzystuje „toczące się okno kontekstowe, w którym AI pamięta to, co widzisz bez konieczności mówienia jej, na co zwrócić uwagę”. Oznacza to znaczny postęp w kontekstowym postrzeganiu systemów AI i może znacznie uprościć codzienne problemy, takie jak poszukiwanie wyłożonych obiektów.
Tłumaczenie i przetwarzanie tekstu rzeczywistego
Inną wykazaną funkcją jest tłumaczenie czasowe, w którym inteligentne okulary mogą nagrywać, tłumaczyć lub transkrybować rozmowy w czasie rzeczywistym. Izadi wykonał tłumaczenie na żywo z Farsi na angielski, z tłumaczeniem jako napisem na wystawie okularów. Wspomniano również o tłumaczeniu na inne języki, takie jak hindi.
Okulary mogą również skanować i przetwarzać teksty, które zostały wykazane przez skanowanie książki podczas prezentacji. Funkcje te mogą być bardzo przydatne, szczególnie w przypadku międzynarodowych podróży, wielojęzycznych środowisk pracy lub podczas studiowania tekstów języka obcego.
Kreatywne i praktyczne funkcje codzienne
Podczas prezentacji pokazano również pisanie wiersza Haiku, co ilustruje kreatywne możliwości integracji AI. Ponadto okulary mogą działać jako pomoc nawigacyjna, jak pokazuje Google na swoim blogu. Gemini-I może wyświetlać sugestie dotyczące trasy bezpośrednio w polu widzenia użytkownika, a tym samym ułatwić nawigację w nieznanych środowiskach.
Szklanki wzroku Gemini powinny umożliwić zautomatyzowanie wielu codziennych zadań poprzez proste polecenia głosowe od kalendarza po wysyłanie wiadomości e-mail do pisania dokumentów lub rezerwowania stołu w pobliskiej restauracji.
Android XR: Nowy system operacyjny dla urządzeń XR
Przedstawione inteligentne okulary oparte są na Android XR, nowym systemie operacyjnym, który Google ogłosił w grudniu 2024 r. Android XR został specjalnie opracowany dla urządzeń XR i ma oferować jednolitą platformę dla różnych rodzajów sprzętu AR i VR.
Współpraca z Samsungiem i ekspansja ekosystemu XR
Google rozwija Android XR we współpracy z Samsungiem, co wskazuje na szersze wsparcie przemysłowe dla nowego ekosystemu. Oprócz inteligentnych okularów, na konferencji TED, która jest również oparta również na Androida XR i opracowany we współpracy z Samsungiem zaprezentowano również „Project Moohan” o nazwie „Project Moohan” o nazwie „Project Moohan”.
Zestaw słuchawkowy mieszanej rzeczywistości wykorzystuje technologię wideo Pashrough „do stworzenia bezproblemowej nakładki prawdziwego i wirtualnego świata”. Jest o wiele bardziej masywny niż inteligentne okulary i ma na celu bardziej intensywne wrażenia z mieszanej rzeczywistości, podczas gdy okulary są przeznaczone do użytku przez cały dzień.
Platforma programisty i ekosystem aplikacji
Android XR powinien umożliwić programistom tworzenie aplikacji dla różnych urządzeń XR ze znanymi narzędziami z Androidem. Dla programistów powinien oferować jednolitą platformę z możliwościami „opracowywania doświadczeń dla szerokiej gamy urządzeń ze znanymi narzędziami i ramami Androida”. Dzięki tej strategii Google może szybko zbudować obszerny ekosystem aplikacji dla urządzeń XR, ponieważ programiści mogą korzystać z istniejącego know-how Android.
Nadaje się do:
Perspektywy rynkowe i przyszłe perspektywy
Chociaż Google nie ogłosił oficjalnej daty premiery inteligentnych okularów podczas prezentacji TED, różne wskazania wskazują, że premiera rynku może nie być daleko. Południowo -koreański portal informacyjny Etnews poinformował niedawno, że produkt z nasionem kodenu „Haean” jest nadal planowany w tym roku oraz że funkcje i specyfikacje są obecnie finalizowane.
Reakcje medialne i praktyczne doświadczenia
Fakt, że Google zrobił już 20-minutowe praktyczne z nowymi okularami, wskazuje na zaawansowany etap rozwoju. Pierwsze reakcje były pozytywne i wydaje się, że istnieje pewien entuzjazm dla tej technologii. Można zobaczyć między wierszami, które Google już ogłosił produkt nieoficjalnie i że oficjalna prezentacja nie powinna być daleko.
Pozycjonowanie na rosnącym rynku AR
W porównaniu z konkurencją, zwłaszcza Ray-Ban Meta Smart Glasses, które są już na rynku, Google wydaje się dążyć do technologicznego przewagi z integracją zaawansowanych funkcji AI i wyświetlacza. Ray-Ban Meta Smart okulary nie mają wyświetlacza, który ogranicza opcje interakcji.
Połączenie niepozornego designu, potężnej sztucznej inteligencji i praktycznych funkcji codziennych może dać Google przewagę konkurencyjną i na nowo zdefiniować rynek okularów AR. W szczególności głęboka integracja z ekosystemem Androida i usługami Google może być przekonującym argumentem dla wielu użytkowników.
Funkcje Google Gemini: kamień milowy dla rozszerzonej rzeczywistości
Prezentacja nowych okularów Google Smart z wyświetlaczami i gemini na konferencji TED jest ważnym kamieniem milowym w opracowywaniu technologii rzeczywistości rozszerzonej. Po nieudanej pierwszej próbie z Google Glass firma wydaje się narysować nauki z przeszłości, a teraz przedstawia produkt, który jest bardziej dojrzały technologicznie, a jednocześnie bardziej akceptowalny społecznie.
Niepoziomowy design, ścisła integracja ze smartfonem i potężne funkcje AI mogą pomóc w znalezieniu nowej generacji szerokości inteligentnych okularów. Funkcje takie jak „pamięć”, tłumaczenie w czasie rzeczywistym i nawigacja oferują określoną wartość dodaną w życiu codziennym.
Opracowanie Androida XR jako jednolitej platformy dla różnych urządzeń XR i współpraca z Samsungiem wskazuje długoterminową strategię Google polegającą na budowaniu kompleksowego ekosystemu dla rozszerzonej rzeczywistości. W tym ekosystemie różne urządzenia - od lekkich okularów po potężne zestawy słuchawkowe - mogą działać płynnie razem, a tym samym umożliwić zupełnie nowe rodzaje interakcji z treścią cyfrową.
Chociaż pytania dotyczące dokładnego wprowadzenia rynku, ceny i żywotność baterii są nadal otwarte, pokazane do tej pory postępy sugerują, że Google zrobił ważny krok w kierunku przyszłości rozszerzonej rzeczywistości dzięki tym inteligentnym okularom. Okaże się, jak będzie się rozwijać ta technologia i jakie nowe obszary zastosowania spowodują.
Nadaje się do:
Twój globalny partner w zakresie marketingu i rozwoju biznesu
☑️Naszym językiem biznesowym jest angielski lub niemiecki
☑️ NOWOŚĆ: Korespondencja w Twoim języku narodowym!
Chętnie będę służyć Tobie i mojemu zespołowi jako osobisty doradca.
Możesz się ze mną skontaktować wypełniając formularz kontaktowy lub po prostu dzwoniąc pod numer +49 89 89 674 804 (Monachium) . Mój adres e-mail to: wolfenstein ∂ xpert.digital
Nie mogę się doczekać naszego wspólnego projektu.