Veröffentlicht am: 13. Juli 2025 / Update vom: 13. Juli 2025 – Verfasser: Konrad Wolfenstein
Der ‘Spotify-Moment’ der AR-Branche? Snap Specs – auf dem Weg zur alltagstauglichen AR-Brille? – Bild: Xpert.Digital
Snap zeigt 2026 die Zukunft der AR-Brillen: Sie soll leichter als Apple Vision Pro, smarter als Ray-Ban sein
Snap kündigt „Specs“ – die erste AR-Brille für Verbraucher an
Augmented Reality (AR) steht an der Schwelle, vom Experimentierfeld der Entwickler in den Alltag der Massen zu wechseln. Während Apple mit seinem Vision Pro den Premium-Markt sondiert und Meta seine Ray-Ban-Strategie ständig ausbaut, schlägt Snap einen Mittelweg ein: leichter als ein Head-mounted-Display, funktionaler als reine Kamerabrillen und preislich klar unter Apples 3 499-Dollar-Grenze. Die 2026 erscheinenden „Specs“ sollen zeigen, dass vollwertige AR in einem unauffälligen Brillenrahmen möglich ist.
Passend dazu:
Von Spectacles zu Specs – eine Dekade Lernkurve
Snap experimentiert seit 2016 mit Smart-Glasses. Die erste Spectacles-Generation war im Wesentlichen eine Sonnenbrille mit Kamera – ein spielerisches Gadget für Snapchat-Stories. Mit jeder weiteren Variante näherte sich das Unternehmen jedoch einer echten AR-Brille an. 2021 brachte die vierte Generation erstmals transparente Waveguide-Displays und 6-DOF-Tracking für ausgewählte Kreative. Ein Jahr später folgte Spectacles 5, die dank Dual-Snapdragon-Architektur Gestensteuerung, Handtracking und 46-Grad-Sichtfeld boten. Aber es blieb ein Entwickler-Kit: klobig, 226 Gramm schwer und mit 45 Minuten Akkulaufzeit – zu wenig für den Massenmarkt.
Die Consumer-Version wartet nun unter dem verkürzten Namen „Specs“ auf ihren Start. Der Namenswechsel signalisiert: Diesmal soll es kein Tech-Demo sein, sondern ein Produkt für jedermann. Snap investierte laut eigenen Angaben mehr als drei Milliarden Dollar und elf Jahre Entwicklungszeit, um diese Hürde zu nehmen.
Hardware im Detail
Herzstück der Specs sind neu entwickelte Waveguide-Displays, die holografische Bilder direkt in den Sichtbereich einspiegeln. Projiziert wird über Mikro-Projektoren auf Liquid-Crystal-on-Silicon-Basis; jeder Wellenleiter enthält Milliarden Nanostrukturen, die das Licht präzise brechen – so entsteht ein klares, farbstarkes Bild selbst bei Sonnenschein. Das Sichtfeld wächst laut frühen Prototypen deutlich über die bisherigen 46 Grad hinaus; intern kursieren Werte um 55 bis 60 Grad – genug, um virtuelle Objekte stabil im Raum zu verankern, ohne Tunnelblickgefühl.
Ein Dual-SoC auf Snapdragon-Basis übernimmt Rechenarbeit und Sensorfusion. Je ein Chip sitzt links und rechts im Bügel, was Wärmehotspots vermeidet und das Gewicht besser verteilt. Die Prozessoren greifen auf mehrere Kameras für Szenenerkennung, Depth-Mapping und Handtracking zurück. Sechs Mikrofone liefern räumliches Audio, offene Lautsprecher erzeugen einen akustischen „Sweet Spot“, der Mitmenschen möglichst wenig stört.
Snappeigene Vapor-Chambers kühlen die SoCs, während optimierte Akkuteile laut unternehmensnahen Quellen auf mindestens 45 Minuten Dauerbetrieb kommen sollen – intern gilt „halber Arbeitstag“ als Ziel. Eine magnetische Power-Bridge im Etui könnte unterwegs nachladen, ähnlich wie bei Metas Ray-Ban-Case. Damit rückt ganztägige Nutzung in Sichtweite, bleibt aber der kritischste Punkt der Roadmap.
Bedienkonzept – Hände statt Controller
Specs setzen voll auf natürliche Eingaben:
- Hand-Gesten: Die Brille erkennt Fingerbewegungen im Nahfeld mit hoher Präzision. Ein „Obendrauf-Tippen“ auf Daumen und Zeigefinger öffnet das Hauptmenü, ein Wischen in der Luft blättert durch Karten, ein sanftes Kneifen bestätigt.
- Blicksteuerung: Eye-Tracking misst wohin der Nutzer schaut, Snap OS markiert dort dynamisch Schaltflächen.
- Sprache: Das Mikrofon-Array leitet Befehle an Snap AI weiter, wahlweise offline-lokal oder in der Cloud.
Ein zusätzlicher, haptischer Fingerring ist laut Entwicklerdokumenten optional – für Situationen, in denen Gesten sozial unpassend oder lichttechnisch schwierig sind.
Snap OS – das Fundament der Erfahrung
Snap OS, erstmals mit Spectacles 5 gezeigt, ist ein speziell auf räumliche Interaktion ausgelegtes Betriebssystem. Sein Homescreen erscheint als halbtransparente Karussell-Leiste in 3D über der Handfläche. Apps nennt Snap traditionell „Lenses“. Über vier Millionen davon existieren bereits im Smartphone-Kosmos und sind nun prinzipiell für Specs portierbar.
Neu sind drei APIs:
- Depth Module API – erleichtert Raumanker und Okklusion, sodass virtuelle Objekte hinter realen Oberflächen verschwinden können.
- Snap3D API – generiert 3D-Assets per Text-Prompt, optimiert für schnelle Prototypen.
- Automated Speech Recognition API – transkribiert über 40 Sprachen lokal in Echtzeit.
Dank strategischer Partnerschaften sind zudem OpenAI GPT-4o und Google Gemini tief integriert. Damit lassen sich multimodale Assistenten bauen, die Text erkennen, Objekte beschriften, Übersetzungen einblenden oder Rezepte vorschlagen, wenn das Küchenregal im Sichtfeld erscheint.
Wettbewerbslandschaft im Vergleich
Die Wettbewerbslandschaft im Vergleich zeigt deutliche Unterschiede zwischen den vier Hauptakteuren im AR-Brillen-Markt. Snap Specs für 2026 werden als leichte AR-Brille mit Waveguide-Displays konzipiert und sollen ein Sichtfeld von über 55 Grad bieten. Als Prozessor sind duale Snapdragon XR-Derivate vorgesehen, die eine Autonomie von 4 bis 6 Stunden mit Case ermöglichen sollen. Die Haupteingabemethoden umfassen Hände, Blick und Stimme, während der KI-Fokus auf ChatGPT, Gemini und Snap AI liegt. Der erwartete Preis liegt unter 3.499 Dollar.
Apple Vision Pro aus 2024 präsentiert sich als Mixed-Reality-Headset mit externem Akku und bietet ein kamerabasiertes Sichtfeld von etwa 100 Grad. Die Leistung wird durch Apple M2 und R1 Prozessoren erbracht, wobei die Autonomie 2 Stunden mit internem Akku beträgt, aber endlos per Kabel möglich ist. Hände, Augen und Stimme dienen als Eingabemethoden, während visionOS-SDK und Core ML den KI-Fokus bilden. Der Preis beginnt ab 3.499 Dollar.
Ray-Ban Meta von 2023 unterscheidet sich grundlegend als Kamera- und Audio-Brille ohne Display. Sie nutzt den Snapdragon AR1 Gen 1 Prozessor und bietet eine beeindruckende Autonomie von 36 Stunden inklusive Etui. Stimme, Touch und Kamera fungieren als Eingabemethoden, während Meta AI Vision und Chat die KI-Funktionen bereitstellen. Mit einem Startpreis ab 299 Dollar ist sie die günstigste Option.
Meta Orion Proto aus 2024 repräsentiert als Prototyp eine See-Through-AR-Brille mit einem Sichtfeld von etwa 70 Grad laut Demo. Custom Meta Silicon treibt das Laborgerät an, wobei keine Autonomie-Angaben verfügbar sind. Hand, Stimme und EMG-Armband ermöglichen die Eingabe, während Meta AI und generatives 3D die KI-Funktionen darstellen. Als Prototyp ist kein Preis angegeben.
Im Gegensatz zu Apple setzt Snap auf ein alltagstaugliches Brillendesign ohne Stirnpolster und externes Akku-Paket. Meta wiederum verkauft bislang günstige Kamerabrillen – AV-Funktionen ja, echtes AR erst in der nächsten Generation ab 2025. Orion bleibt ein Forschungsprojekt ohne Markttermin, zeigt aber, wohin die Reise geht.
Killer-Use-Cases – Wohin die Reise gehen könnte
1. Spontane Übersetzung
Geschäftsreisen profitieren von Untertitel-Overlays: Straßenschilder, Speisekarten oder Gespräche erscheinen live in der eigenen Sprache.
2. 3D-Coaching im Alltag
Eine Tennis-Lens projiziert ideale Schlagwinkel direkt auf den Schläger; eine Schlagzeug-App blendet Notenblätter über die Snare, während ein virtueller Lehrer Tempo und Sitzhaltung korrigiert.
3. Navigation ohne Handy
Pfeile schweben an der nächsten Kreuzung, die Brille vibriert sanft beim Abbiegen. Für Fußgänger und Radfahrer entfällt der starre Blick aufs Smartphone.
4. Social AR
Snap lebt von geteilten Momenten. Mehrspieler-Lenses wie „Wisp World“ verwandeln den Park in ein gemeinsames Abenteuer, bei dem Freunde die gleichen digitalen Wesen sehen und fangen können.
5. Produktivität
Virtuelle Monitore schweben über dem Schreibtisch, Mails öffnen sich im Blickfeld, und ein Chat-Fenster bleibt links oben angedockt. Für konzentriertes Arbeiten braucht es allerdings exzellentes Schrift-Rendering und dezente Gestensteuerung – eine Hürde, an der frühere Ansätze häufig scheiterten.
Passend dazu:
- Snap von Snapchat hat monatliche AR-Challenges ins Leben gerufen: Ein Katalysator für Augmented Reality Innovationen
Herausforderungen auf dem Weg zur Massenadoption
- Akkulaufzeit – Ohne mindestens sechs Stunden realistischer Nutzung riskieren Specs den gleichen Vorwurf wie Spectacles 5: cooles Tech-Demo, aber unpraktisch im Alltag.
- Gewicht & Design – Unter 100 Gramm gilt als psychologische Grenze, damit die Brille nicht als Gadget entlarvt wird. Ersetzt man die eigenen Sehgläser nicht elegant, bleibt das Gerät Nische.
- App-Qualität – Vier Millionen Smartphone-Lenses sind kein Garant für sinnvolle AR-Erfahrungen. Entwickler müssen echte Mehrwerte schaffen, nicht nur Filter von 2D auf 3D heben.
- Datenschutz – Eine Frontkamera in einer unauffälligen Brille weckt Erinnerungen an Google Glass. LED-Indikatoren und klare Datenschutzrichtlinien sind Pflicht, um Akzeptanz zu sichern.
- Preis – Snap möchte „deutlich günstiger“ als Apple sein, sich aber über Meta positionieren. Beobachter rechnen mit 1 000 – 1 500 Dollar. Überschreitet der Preis 2 000 Dollar, könnten Verbraucher zum Vision Pro greifen, das zwar schwerer, aber in puncto Display und Performance kompromisslos ist.
Marktpotenzial und Szenarien bis 2030
1. Optimistisches Szenario
Snap liefert Specs pünktlich, erreicht 5–6 Stunden Mischbetrieb, bringt ein attraktives Launch-Portfolio aus Spielen, Travel-Apps und AI-Tools – und verkauft in den ersten zwei Jahren fünf Millionen Einheiten. Das Ökosystem zieht Investitionen an, Snap etabliert sich als „Spotify-Moment“ der AR-Branche. Smartphones verlieren erstmals Nutzungszeit an Brillen.
2. Basis-Szenario
Specs erscheinen 2027 nach Verzögerungen, kosten 1 799 Dollar, bieten vier Stunden Akku. Early Adopters kaufen, Mainstream zögert. Meta kontert mit Ray-Ban 3 inklusive Micro-Display und schlägt preislich nach unten. Apple bringt 2028 leichtere Vision „SE“. AR-Brillen bleiben Nischengeräte, aber unverzichtbar für bestimmte Profis und Kreative.
3. Pessimistisches Szenario
Akkuprobleme und Herstellungskosten drücken Specs über 2 000 Dollar. Entwickler können die Hürden für komplexe 3D-Apps nicht kompensieren. Der Markt vergleicht Specs mit mächtigen Mixed-Reality-Headsets und urteilt: zu wenig Display, zu kurze Laufzeit. Snap reduziert das Projekt, fokussiert wieder auf Software.
Bedeutung für die AR-Branche insgesamt
Specs sind mehr als ein weiteres Wearable. Sie testen, ob ein Social-Media-Unternehmen genügend Hardware-Kompetenz aufbauen kann, um den „Next-Gen-Computer“ zu liefern. Gelingt es, wird die Trennung zwischen Kamera-App und AR-Gerät hinfällig: Die Kamera sitzt nun wortwörtlich vor den Augen, KI ordnet, übersetzt und gestaltet das Sichtfeld, während die Cloud Freunde in dieselbe digitale Schicht der Realität holt.
Fehlschlägt Snap, verschiebt sich der Fokus noch stärker auf Tech-Giganten mit tiefen Hardware-Wurzeln. Apple könnte mit einer schlankeren Vision-Brille nachlegen, Meta mit Orion reif sein, Google plant ebenfalls ein Gemini-gestütztes Smart-Glass-Ökosystem.
Snaps AR-Brille Specs: Kann sie das Smartphone als Hauptgerät ablösen?
Snap wagt mit den Specs einen Balanceakt: Die Brille muss leicht wie Ray-Bans sein, aber so leistungsfähig, dass sie mehr kann als Fotografieren; sie muss günstiger als ein Vision Pro sein, aber hochwertig genug, um Mehrwerte zu bieten; sie muss ganztägig durchhalten, ohne den Träger zu belasten.
Sollten Akku, Preis und App-Ökosystem zusammenkommen, könnte Snap tatsächlich das erste massentaugliche AR-Erlebnis schaffen – und damit die Frage provozieren, ob das Smartphone eines Tages zur sekundären Schnittstelle wird. Bis dahin bleiben zwei Jahre, in denen Entwickler, Designer und Hardware-Ingenieure beweisen müssen, dass das Versprechen von Augmented Reality mehr ist als ein flüchtiger Lens-Effekt.
Passend dazu:
Ihr globaler Marketing und Business Development Partner
☑️ Unsere Geschäftssprache ist Englisch oder Deutsch
☑️ NEU: Schriftverkehr in Ihrer Landessprache!
Gerne stehe ich Ihnen und mein Team als persönlicher Berater zur Verfügung.
Sie können mit mir Kontakt aufnehmen, indem Sie hier das Kontaktformular ausfüllen oder rufen Sie mich einfach unter +49 89 89 674 804 (München) an. Meine E-Mail Adresse lautet: wolfenstein∂xpert.digital
Ich freue mich auf unser gemeinsames Projekt.