Veröffentlicht am: 31. Mai 2025 / Update vom: 31. Mai 2025 – Verfasser: Konrad Wolfenstein
DeepSeek-R1-0528: DeepSeek Update bringt chinesisches KI-Modell wieder auf Augenhöhe mit westlichen Branchenführern – Bild: Xpert.Digital
Open-Source-KI am Limit: DeepSeek stellt OpenAI und Google in den Schatten
Von 60 auf 68: DeepSeek katapultiert chinesische KI zurück an die Spitze
Das chinesische KI-Startup DeepSeek hat mit der Veröffentlichung von DeepSeek-R1-0528 am 28. Mai 2025 einen bedeutenden Meilenstein erreicht, der die globale KI-Landschaft neu definiert. Das Update des Open-Source-Reasoning-Modells zeigt dramatische Leistungssteigerungen und positioniert DeepSeek erstmals auf dem gleichen Niveau wie OpenAIs o3 und Google Gemini 2.5 Pro. Besonders bemerkenswert ist, dass diese Spitzenleistung bei einem Bruchteil der Kosten und mit vollständig offenen Modellgewichten erreicht wird, was fundamentale Fragen zur Zukunft proprietärer KI-Systeme aufwirft. Die unabhängige Bewertungsplattform Artificial Analysis stuft das neue Modell mit 68 Punkten ein – ein Sprung von 60 auf 68 Punkte entspricht der Leistungsdifferenz zwischen OpenAI o1 und o3.
Passend dazu:
Das Update und seine technischen Verbesserungen
DeepSeek-R1-0528 stellt eine substantielle Weiterentwicklung dar, die ohne Änderungen an der grundlegenden Architektur auskommt, aber durch algorithmische Optimierungen und verstärkten Einsatz von Rechenressourcen im Post-Training erhebliche Leistungssteigerungen erzielt. Das Update konzentriert sich primär auf die Verbesserung der Reasoning-Fähigkeiten und ermöglicht laut DeepSeek “deutlich tiefere Denkprozesse”. Ein besonders eindrucksvolles Beispiel für diese Verbesserung zeigt sich im AIME-2025-Mathematiktest, wo die Genauigkeit von 70 Prozent auf 87,5 Prozent stieg. Parallel dazu erhöhte sich die durchschnittliche Tokenanzahl pro Frage von 12.000 auf 23.000 Token, was auf intensivere Verarbeitungsvorgänge hinweist.
Neben den Reasoning-Verbesserungen führt das Update wichtige neue Funktionalitäten ein, darunter JSON-Ausgabe und Funktionsaufrufe, eine optimierte Benutzeroberfläche und reduzierte Halluzinationen. Diese Neuerungen machen das Modell für Entwickler deutlich praktischer einsetzbar und erweitern seinen Anwendungsbereich erheblich. Die Verfügbarkeit bleibt dabei unverändert: Bestehende API-Nutzer erhalten das Update automatisch, während die Modellgewichte weiterhin unter der offenen MIT-Lizenz auf Hugging Face verfügbar sind.
Benchmark-Performance und Leistungsvergleiche
Die Benchmark-Ergebnisse von DeepSeek-R1-0528 zeigen beeindruckende Verbesserungen über alle Bewertungskategorien hinweg. In mathematischen Aufgaben stieg der AIME-2024-Wert von 79,8 auf 91,4 Prozent, HMMT 2025 von 41,7 auf 79,4 Prozent und CNMO 2024 von 78,8 auf 86,9 Prozent. Diese Ergebnisse positionieren das Modell als eines der leistungsstärksten KI-Systeme für mathematische Problemlösungen weltweit.
Bei Programmierbenchmarks zeigt DeepSeek-R1-0528 ebenfalls deutliche Fortschritte. LiveCodeBench verbesserte sich von 63,5 auf 73,3 Prozent, Aider-Polyglot von 53,3 auf 71,6 Prozent und SWE Verified von 49,2 auf 57,6 Prozent. Das Codeforces-Rating kletterte von 1.530 auf 1.930 Punkte, was das Modell in die Spitzengruppe der algorithmischen Problemlöser einordnet. Im Vergleich zu Konkurrenzmodellen erreicht DeepSeek-R1 bei SWE Verified 49,2 Prozent und liegt damit knapp vor OpenAI o1-1217 mit 48,9 Prozent, während es bei Codeforces mit 96,3 Prozentil und einem Elo-Rating von 2029 Punkten sehr nahe an OpenAIs führendes Modell heranreicht.
Allgemeine Wissens- und Logiktests bestätigen die breite Leistungssteigerung: GPQA-Diamond stieg von 71,5 auf 81,0 Prozent, Humanity’s Last Exam von 8,5 auf 17,7 Prozent, MMLU-Pro von 84,0 auf 85,0 Prozent und MMLU-Redux von 92,9 auf 93,4 Prozent. Lediglich bei OpenAIs SimpleQA zeigte sich ein leichter Rückgang von 30,1 auf 27,8 Prozent. Diese umfassenden Verbesserungen dokumentieren, dass DeepSeek-R1-0528 nicht nur in spezialisierten Bereichen, sondern über das gesamte Spektrum kognitiver Aufgaben hinweg konkurrenzfähig ist.
Technische Architektur und Innovationen
Die technische Grundlage von DeepSeek-R1-0528 basiert auf einer hochentwickelten MoE (Mixture of Experts) Architektur mit 37 Milliarden aktiven Parametern aus insgesamt 671 Milliarden Parametern und einer Kontextlänge von 128.000 Token. Das Modell implementiert fortschrittliches Reinforcement Learning, um Selbstüberprüfung, mehrstufige Reflexion und auf den Menschen abgestimmte Argumentationsfähigkeiten zu erreichen. Diese Architektur ermöglicht es dem Modell, komplexe Reasoning-Aufgaben durch iterative Denkprozesse zu bewältigen, was es von traditionellen Sprachmodellen unterscheidet.
Ein besonders innovativer Aspekt ist die Entwicklung einer destillierten Variante, DeepSeek-R1-0528-Qwen3-8B, die durch Destillation der Gedankenkette von DeepSeek-R1-0528 für das Post-Training von Qwen3-8B-Base entstanden ist. Diese kleinere Version erreicht beeindruckende Leistungen bei deutlich geringeren Ressourcenanforderungen und ist auf GPUs mit 8-12 GB VRAM lauffähig. Das Modell erreichte im AIME 2024-Test State-of-the-Art-Leistung unter Open-Source-Modellen mit einer 10-prozentigen Verbesserung gegenüber Qwen3-8B und vergleichbarer Leistung wie Qwen3-235B-Thinking.
Die Entwicklungsmethodik zeigt, dass DeepSeek verstärkt auf Post-Training mit Reinforcement Learning setzt, was zu einem 40-prozentigen Anstieg des Tokenverbrauchs in der Evaluation führte – von 71 auf 99 Millionen Tokens. Dies deutet darauf hin, dass das Modell längere und tiefere Antworten generiert, ohne dass grundlegende Architekturänderungen erforderlich waren.
Marktposition und Wettbewerbsdynamik
DeepSeek-R1-0528 etabliert sich als ernstzunehmender Konkurrent zu den führenden proprietären Modellen westlicher Technologieunternehmen. Laut Artificial Analysis liegt das Modell mit 68 Punkten auf dem gleichen Niveau wie Googles Gemini 2.5 Pro und vor Modellen wie xAIs Grok 3 mini, Metas Llama 4 Maverick und Nvidias Nemotron Ultra. In der Code-Kategorie erreicht DeepSeek-R1-0528 ein Niveau knapp unterhalb von OpenAIs o4-mini und o3.
Die Veröffentlichung des Updates hat erhebliche Auswirkungen auf die globale KI-Landschaft gehabt. Bereits die ursprüngliche Veröffentlichung von DeepSeek-R1 im Januar 2025 führte zu einem Einbruch der Technologieaktien außerhalb Chinas und stellte die Annahme in Frage, dass die Skalierung von KI enorme Rechenleistung und Investitionen erfordert. Die Antwort der westlichen Konkurrenten war schnell: Google führte vergünstigte Zugangstarife für Gemini ein, während OpenAI die Preise senkte und ein o3 Mini-Modell einführte, das weniger Rechenleistung benötigt.
Text-Stil-Analysen von EQBench zeigen interessanterweise, dass sich DeepSeek-R1 stilistisch stärker an Google als an OpenAI orientiert, was darauf hindeutet, dass bei der Entwicklung möglicherweise mehr synthetische Gemini-Outputs verwendet wurden. Diese Beobachtung unterstreicht die komplexen Einflüsse und Technologietransfers zwischen den verschiedenen KI-Entwicklern.
Kosteneffizienz und Verfügbarkeit
Ein entscheidender Wettbewerbsvorteil von DeepSeek-R1-0528 liegt in seiner außergewöhnlichen Kosteneffizienz. Die Preisstruktur ist deutlich günstiger als die von OpenAI: Input-Token kosten 0,14 US-Dollar pro Million Token bei Cache-Treffern und 0,55 US-Dollar bei Cache-Misses, während Output-Token 2,19 US-Dollar pro Million Token kosten. Im Vergleich dazu verlangt OpenAI o1 15 US-Dollar für Input-Token und 60 US-Dollar für Output-Token pro Million, was DeepSeek-R1 um 90-95 Prozent günstiger macht.
Microsoft Azure bietet DeepSeek-R1 ebenfalls mit wettbewerbsfähigen Preisen an: Die globale Version kostet 0,00135 US-Dollar für Input-Token und 0,0054 US-Dollar für Output-Token pro 1.000 Token, während die regionale Version geringfügig höhere Preise aufweist. Diese Preisgestaltung macht das Modell für Unternehmen und Entwickler besonders attraktiv, die hochwertige KI-Funktionalitäten ohne die hohen Kosten proprietärer Lösungen nutzen möchten.
Die Verfügbarkeit als Open-Source-Modell unter MIT-Lizenz ermöglicht zudem kommerzielle Nutzung und Modifikation ohne Lizenzgebühren. Entwickler können das Modell lokal betreiben oder über verschiedene APIs nutzen, was Flexibilität und Kontrolle über die Implementierung bietet. Für Nutzer mit begrenzten Ressourcen steht die destillierte 8-Milliarden-Parameter-Version zur Verfügung, die auf Consumer-Hardware mit 24 GB Speicher läuft.
Passend dazu:
- Chinas Aufholjagd in der Künstlichen Intelligenz: Der Fall DeepSeek und die strategische Datennutzung
Chinas KI-Aufholjagd: Was der Erfolg von DeepSeek bedeutet
DeepSeek-R1-0528 markiert einen Wendepunkt in der globalen KI-Entwicklung und demonstriert, dass chinesische Unternehmen trotz US-Exportbeschränkungen Modelle entwickeln können, die mit den besten westlichen Systemen konkurrieren. Das Update beweist, dass erhebliche Leistungssteigerungen ohne grundlegende Architekturänderungen möglich sind, wenn Post-Training-Optimierungen und Reinforcement Learning effektiv eingesetzt werden. Die Kombination aus Spitzenleistung, drastisch reduzierten Kosten und Open-Source-Verfügbarkeit stellt etablierte Geschäftsmodelle in der KI-Branche fundamental in Frage.
Die Reaktionen der westlichen Konkurrenten auf DeepSeeks Erfolg zeigen bereits erste Marktveränderungen: Preissenkungen bei OpenAI und Google sowie die Entwicklung ressourcenschonenderer Modelle. Mit der erwarteten Veröffentlichung von DeepSeek-R2, die ursprünglich für Mai 2025 geplant war, könnte sich dieser Wettbewerbsdruck weiter intensivieren. Die Erfolgsgeschichte von DeepSeek-R1-0528 verdeutlicht, dass Innovation in der KI nicht zwangsläufig massive Investitionen und Rechenressourcen erfordert, sondern durch clevere Algorithmen und effiziente Entwicklungsmethoden erreicht werden kann.
Passend dazu:
Ihr AI-Transformation, AI-Integration und AI-Plattform Branchenexperte
☑️ Unsere Geschäftssprache ist Englisch oder Deutsch
☑️ NEU: Schriftverkehr in Ihrer Landessprache!
Gerne stehe ich Ihnen und mein Team als persönlicher Berater zur Verfügung.
Sie können mit mir Kontakt aufnehmen, indem Sie hier das Kontaktformular ausfüllen oder rufen Sie mich einfach unter +49 89 89 674 804 (München) an. Meine E-Mail Adresse lautet: wolfenstein∂xpert.digital
Ich freue mich auf unser gemeinsames Projekt.