Website-Icon Xpert.Digital

Der ‘Spotify-Moment’ der AR-Branche? Snap Specs – auf dem Weg zur alltagstauglichen AR-Brille?

Der 'Spotify-Moment' der AR-Branche? Snap Specs – auf dem Weg zur alltagstauglichen AR-Brille?

Der ‘Spotify-Moment’ der AR-Branche? Snap Specs – auf dem Weg zur alltagstauglichen AR-Brille? – Bild: Xpert.Digital

Snap zeigt 2026 die Zukunft der AR-Brillen: Sie soll leichter als Apple Vision Pro, smarter als Ray-Ban sein

Snap kündigt „Specs“ – die erste AR-Brille für Verbraucher an

Augmented Reality (AR) steht an der Schwelle, vom Experimentier­feld der Entwickler in den Alltag der Massen zu wechseln. Während Apple mit seinem Vision Pro den Premium-Markt sondiert und Meta seine Ray-Ban-Strategie ständig ausbaut, schlägt Snap einen Mittelweg ein: leichter als ein Head-mounted-Display, funktionaler als reine Kamera­brillen und preislich klar unter Apples 3 499-Dollar-Grenze. Die 2026 erscheinenden „Specs“ sollen zeigen, dass vollwertige AR in einem unauffälligen Brillen­rahmen möglich ist.

Passend dazu:

Von Spectacles zu Specs – eine Dekade Lernkurve

Snap experimentiert seit 2016 mit Smart-Glasses. Die erste Spectacles-Generation war im Wesentlichen eine Sonnenbrille mit Kamera – ein spielerisches Gadget für Snapchat-Stories. Mit jeder weiteren Variante näherte sich das Unternehmen jedoch einer echten AR-Brille an. 2021 brachte die vierte Generation erstmals transparente Waveguide-Displays und 6-DOF-Tracking für ausgewählte Kreative. Ein Jahr später folgte Spectacles 5, die dank Dual-Snapdragon-Architektur Gesten­steuerung, Handtracking und 46-Grad-Sichtfeld boten. Aber es blieb ein Entwickler-Kit: klobig, 226 Gramm schwer und mit 45 Minuten Akku­laufzeit – zu wenig für den Massenmarkt.

Die Consumer-Version wartet nun unter dem verkürzten Namen „Specs“ auf ihren Start. Der Namenswechsel signalisiert: Diesmal soll es kein Tech-Demo sein, sondern ein Produkt für jedermann. Snap investierte laut eigenen Angaben mehr als drei Milliarden Dollar und elf Jahre Entwicklungszeit, um diese Hürde zu nehmen.

Hardware im Detail

Herzstück der Specs sind neu entwickelte Waveguide-Displays, die holografische Bilder direkt in den Sichtbereich einspiegeln. Projiziert wird über Mikro-Projektoren auf Liquid-Crystal-on-Silicon-Basis; jeder Wellenleiter enthält Milliarden Nanostrukturen, die das Licht präzise brechen – so entsteht ein klares, farb­starkes Bild selbst bei Sonnenschein. Das Sichtfeld wächst laut frühen Prototypen deutlich über die bisherigen 46 Grad hinaus; intern kursieren Werte um 55 bis 60 Grad – genug, um virtuelle Objekte stabil im Raum zu verankern, ohne Tunnelblickgefühl.

Ein Dual-SoC auf Snapdragon-Basis übernimmt Rechenarbeit und Sensor­fusion. Je ein Chip sitzt links und rechts im Bügel, was Wärme­hotspots vermeidet und das Gewicht besser verteilt. Die Prozessoren greifen auf mehrere Kameras für Szenenerkennung, Depth-Mapping und Handtracking zurück. Sechs Mikrofone liefern räumliches Audio, offene Lautsprecher erzeugen einen akustischen „Sweet Spot“, der Mitmenschen möglichst wenig stört.

Snappeigene Vapor-Chambers kühlen die SoCs, während optimierte Akkuteile laut unternehmensnahen Quellen auf mindestens 45 Minuten Dauerbetrieb kommen sollen – intern gilt „halber Arbeitstag“ als Ziel. Eine magnetische Power-Bridge im Etui könnte unterwegs nachladen, ähnlich wie bei Metas Ray-Ban-Case. Damit rückt ganztägige Nutzung in Sichtweite, bleibt aber der kritischste Punkt der Roadmap.

Bedienkonzept – Hände statt Controller

Specs setzen voll auf natürliche Eingaben:

  • Hand-Gesten: Die Brille erkennt Fingerbewegungen im Nahfeld mit hoher Präzision. Ein „Obendrauf-Tippen“ auf Daumen und Zeigefinger öffnet das Hauptmenü, ein Wischen in der Luft blättert durch Karten, ein sanftes Kneifen bestätigt.
  • Blicksteuerung: Eye-Tracking misst wohin der Nutzer schaut, Snap OS markiert dort dynamisch Schaltflächen.
  • Sprache: Das Mikrofon-Array leitet Befehle an Snap AI weiter, wahlweise offline-lokal oder in der Cloud.

Ein zusätzlicher, haptischer Fingerring ist laut Entwickler­dokumenten optional – für Situationen, in denen Gesten sozial unpassend oder licht­technisch schwierig sind.

Snap OS – das Fundament der Erfahrung

Snap OS, erstmals mit Spectacles 5 gezeigt, ist ein speziell auf räumliche Interaktion ausgelegtes Betriebssystem. Sein Homescreen erscheint als halb­transparente Karussell-Leiste in 3D über der Handfläche. Apps nennt Snap traditionell „Lenses“. Über vier Millionen davon existieren bereits im Smartphone-Kosmos und sind nun prinzipiell für Specs portierbar.

Neu sind drei APIs:

  • Depth Module API – erleichtert Raum­anker und Okklusion, sodass virtuelle Objekte hinter realen Oberflächen verschwinden können.
  • Snap3D API – generiert 3D-Assets per Text-Prompt, optimiert für schnelle Prototypen.
  • Automated Speech Recognition API – transkribiert über 40 Sprachen lokal in Echtzeit.

Dank strategischer Partnerschaften sind zudem OpenAI GPT-4o und Google Gemini tief integriert. Damit lassen sich multimodale Assistenten bauen, die Text erkennen, Objekte beschriften, Übersetzungen einblenden oder Rezepte vorschlagen, wenn das Küchen­regal im Sichtfeld erscheint.

Wettbewerbslandschaft im Vergleich

Die Wettbewerbslandschaft im Vergleich zeigt deutliche Unterschiede zwischen den vier Hauptakteuren im AR-Brillen-Markt. Snap Specs für 2026 werden als leichte AR-Brille mit Waveguide-Displays konzipiert und sollen ein Sichtfeld von über 55 Grad bieten. Als Prozessor sind duale Snapdragon XR-Derivate vorgesehen, die eine Autonomie von 4 bis 6 Stunden mit Case ermöglichen sollen. Die Haupteingabemethoden umfassen Hände, Blick und Stimme, während der KI-Fokus auf ChatGPT, Gemini und Snap AI liegt. Der erwartete Preis liegt unter 3.499 Dollar.

Apple Vision Pro aus 2024 präsentiert sich als Mixed-Reality-Headset mit externem Akku und bietet ein kamerabasiertes Sichtfeld von etwa 100 Grad. Die Leistung wird durch Apple M2 und R1 Prozessoren erbracht, wobei die Autonomie 2 Stunden mit internem Akku beträgt, aber endlos per Kabel möglich ist. Hände, Augen und Stimme dienen als Eingabemethoden, während visionOS-SDK und Core ML den KI-Fokus bilden. Der Preis beginnt ab 3.499 Dollar.

Ray-Ban Meta von 2023 unterscheidet sich grundlegend als Kamera- und Audio-Brille ohne Display. Sie nutzt den Snapdragon AR1 Gen 1 Prozessor und bietet eine beeindruckende Autonomie von 36 Stunden inklusive Etui. Stimme, Touch und Kamera fungieren als Eingabemethoden, während Meta AI Vision und Chat die KI-Funktionen bereitstellen. Mit einem Startpreis ab 299 Dollar ist sie die günstigste Option.

Meta Orion Proto aus 2024 repräsentiert als Prototyp eine See-Through-AR-Brille mit einem Sichtfeld von etwa 70 Grad laut Demo. Custom Meta Silicon treibt das Laborgerät an, wobei keine Autonomie-Angaben verfügbar sind. Hand, Stimme und EMG-Armband ermöglichen die Eingabe, während Meta AI und generatives 3D die KI-Funktionen darstellen. Als Prototyp ist kein Preis angegeben.

Im Gegensatz zu Apple setzt Snap auf ein alltags­taugliches Brillen­design ohne Stirnpolster und externes Akku-Paket. Meta wiederum verkauft bislang günstige Kamera­brillen – AV-Funktionen ja, echtes AR erst in der nächsten Generation ab 2025. Orion bleibt ein Forschungsprojekt ohne Markt­termin, zeigt aber, wohin die Reise geht.

Killer-Use-Cases – Wohin die Reise gehen könnte

1. Spontane Übersetzung

Geschäftsreisen profitieren von Untertitel-Overlays: Straßenschilder, Speise­karten oder Gespräche erscheinen live in der eigenen Sprache.

2. 3D-Coaching im Alltag

Eine Tennis-Lens projiziert ideale Schlagwinkel direkt auf den Schläger; eine Schlagzeug-App blendet Notenblätter über die Snare, während ein virtueller Lehrer Tempo und Sitz­haltung korrigiert.

3. Navigation ohne Handy

Pfeile schweben an der nächsten Kreuzung, die Brille vibriert sanft beim Abbiegen. Für Fußgänger und Rad­fahrer entfällt der starre Blick aufs Smartphone.

4. Social AR

Snap lebt von geteilten Momenten. Mehr­spieler-Lenses wie „Wisp World“ verwandeln den Park in ein gemeinsames Abenteuer, bei dem Freunde die gleichen digitalen Wesen sehen und fangen können.

5. Produktivität

Virtuelle Monitore schweben über dem Schreibtisch, Mails öffnen sich im Blick­­feld, und ein Chat-Fenster bleibt links oben angedockt. Für konzentriertes Arbeiten braucht es allerdings exzellentes Schrift-Rendering und dezente Gestensteuerung – eine Hürde, an der frühere Ansätze häufig scheiterten.

Passend dazu:

Herausforderungen auf dem Weg zur Massenadoption

  • Akkulaufzeit – Ohne mindestens sechs Stunden realistischer Nutzung riskieren Specs den gleichen Vorwurf wie Spectacles 5: cooles Tech-Demo, aber unpraktisch im Alltag.
  • Gewicht & Design – Unter 100 Gramm gilt als psychologische Grenze, damit die Brille nicht als Gadget entlarvt wird. Ersetzt man die eigenen Sehgläser nicht elegant, bleibt das Gerät Nische.
  • App-Qualität – Vier Millionen Smartphone-Lenses sind kein Garant für sinnvolle AR-Erfahrungen. Entwickler müssen echte Mehrwerte schaffen, nicht nur Filter von 2D auf 3D heben.
  • Datenschutz – Eine Frontkamera in einer unauffälligen Brille weckt Erinnerungen an Google Glass. LED-Indikatoren und klare Datenschutz­richtlinien sind Pflicht, um Akzeptanz zu sichern.
  • Preis – Snap möchte „deutlich günstiger“ als Apple sein, sich aber über Meta positionieren. Beobachter rechnen mit 1 000 – 1 500 Dollar. Überschreitet der Preis 2 000 Dollar, könnten Verbraucher zum Vision Pro greifen, das zwar schwerer, aber in puncto Display und Performance kompromisslos ist.

Marktpotenzial und Szenarien bis 2030

1. Optimistisches Szenario

Snap liefert Specs pünktlich, erreicht 5–6 Stunden Mischbetrieb, bringt ein attraktives Launch-Portfolio aus Spielen, Travel-Apps und AI-Tools – und verkauft in den ersten zwei Jahren fünf Millionen Einheiten. Das Ökosystem zieht Investitionen an, Snap etabliert sich als „Spotify-Moment“ der AR-Branche. Smartphones verlieren erstmals Nutzungs­zeit an Brillen.

2. Basis-Szenario

Specs erscheinen 2027 nach Verzögerungen, kosten 1 799 Dollar, bieten vier Stunden Akku. Early Adopters kaufen, Mainstream zögert. Meta kontert mit Ray-Ban 3 inklusive Micro-Display und schlägt preislich nach unten. Apple bringt 2028 leichtere Vision „SE“. AR-Brillen bleiben Nischen­geräte, aber unverzichtbar für bestimmte Profis und Kreative.

3. Pessimistisches Szenario

Akkuprobleme und Herstellungs­kosten drücken Specs über 2 000 Dollar. Entwickler können die Hürden für komplexe 3D-Apps nicht kompensieren. Der Markt vergleicht Specs mit mächtigen Mixed-Reality-Headsets und urteilt: zu wenig Display, zu kurze Laufzeit. Snap reduziert das Projekt, fokussiert wieder auf Software.

Bedeutung für die AR-Branche insgesamt

Specs sind mehr als ein weiteres Wearable. Sie testen, ob ein Social-Media-Unternehmen genügend Hardware-Kompetenz aufbauen kann, um den „Next-Gen-Computer“ zu liefern. Gelingt es, wird die Trennung zwischen Kamera-App und AR-Gerät hinfällig: Die Kamera sitzt nun wortwörtlich vor den Augen, KI ordnet, übersetzt und gestaltet das Sichtfeld, während die Cloud Freunde in dieselbe digitale Schicht der Realität holt.

Fehlschlägt Snap, verschiebt sich der Fokus noch stärker auf Tech-Giganten mit tiefen Hardware-Wurzeln. Apple könnte mit einer schlankeren Vision-Brille nachlegen, Meta mit Orion reif sein, Google plant ebenfalls ein Gemini-gestütztes Smart-Glass-Ökosystem.

Snaps AR-Brille Specs: Kann sie das Smartphone als Hauptgerät ablösen?

Snap wagt mit den Specs einen Balance­akt: Die Brille muss leicht wie Ray-Bans sein, aber so leistungsfähig, dass sie mehr kann als Fotografieren; sie muss günstiger als ein Vision Pro sein, aber hochwertig genug, um Mehrwerte zu bieten; sie muss ganztägig durchhalten, ohne den Träger zu belasten.

Sollten Akku, Preis und App-Ökosystem zusammenkommen, könnte Snap tatsächlich das erste massentaugliche AR-Erlebnis schaffen – und damit die Frage provozieren, ob das Smartphone eines Tages zur sekundären Schnitt­stelle wird. Bis dahin bleiben zwei Jahre, in denen Entwickler, Designer und Hardware-Ingenieure beweisen müssen, dass das Versprechen von Augmented Reality mehr ist als ein flüchtiger Lens-Effekt.

Passend dazu:

 

Ihr globaler Marketing und Business Development Partner

☑️ Unsere Geschäftssprache ist Englisch oder Deutsch

☑️ NEU: Schriftverkehr in Ihrer Landessprache!

 

Konrad Wolfenstein

Gerne stehe ich Ihnen und mein Team als persönlicher Berater zur Verfügung.

Sie können mit mir Kontakt aufnehmen, indem Sie hier das Kontaktformular ausfüllen oder rufen Sie mich einfach unter +49 89 89 674 804 (München) an. Meine E-Mail Adresse lautet: wolfensteinxpert.digital

Ich freue mich auf unser gemeinsames Projekt.

 

 

☑️ KMU Support in der Strategie, Beratung, Planung und Umsetzung

☑️ Erstellung oder Neuausrichtung der Digitalstrategie und Digitalisierung

☑️ Ausbau und Optimierung der internationalen Vertriebsprozesse

☑️ Globale & Digitale B2B-Handelsplattformen

☑️ Pioneer Business Development / Marketing / PR / Messen

Die mobile Version verlassen