Publikováno dne: 31. května 2025 / Aktualizace od: 31. května 2025 - Autor: Konrad Wolfenstein
DeepSeek-R1-0528: Aktualizace DeepSeek přináší čínský model AI zpět na úroveň očí s vůdci západního průmyslu-image: xpert.digitální
Open source AI na limitu: DeepSeek provádí OpenAI a Google ve stínu
Od 60 do 68: Deepseek katapultovaná čínská AI zpět na vrchol
S vydáváním Deepseek-R1-0528 28. května 2025 dosáhl čínský startup Ki Deep-Useek důležitý milník, který předefinoval globální prostředí AI. Aktualizace modelu pro čtení open source ukazuje dramatické zvyšování výkonu a poprvé pozice Deepseek na stejné úrovni jako OpenAIS O3 a Google Gemini 2.5 Pro. Je zvláště pozoruhodné, že tohoto nejvyššího výkonu je dosaženo zlomkem nákladů a se zcela otevřenými hmotnostmi modelu, což vyvolává základní otázky o budoucnosti proprietárních systémů AI. Umělená analýza nezávislé ratingové platformy klasifikuje nový model s 68 body - skok z 60 do 68 bodů odpovídá rozdílu výkonu mezi OpenAAI O1 a O3.
Vhodné pro:
Aktualizace a její technické vylepšení
DeepSeek-R1-0528 představuje podstatný další vývoj, který nevyžaduje žádné změny v základní architektuře, ale dosahuje významného zvýšení po tréninku prostřednictvím algoritmických optimalizací a zvýšené využívání aritmetických zdrojů. Aktualizace se primárně zaměřuje na zlepšení dovedností odůvodnění a podle Deepseek umožňuje „výrazně hlubší procesy myšlení“. Obzvláště působivý příklad tohoto zlepšení ukazuje v matematickém testu AIME 2025, kde se přesnost zvýšila ze 70 procent na 87,5 procenta. Zároveň se průměrný počet žetonů na otázku zvýšil z 12 000 na 23 000 žetonů, což naznačuje intenzivnější procesy zpracování.
Kromě zlepšení zdůvodnění představuje aktualizace důležité nové funkce, včetně výstupu JSON a funkčních pohledů, optimalizovaného uživatelského rozhraní a snížených halucinací. Díky těmto inovacím je model pro vývojáře mnohem praktičtějším a výrazně rozšiřuje jeho rozsah. Dostupnost zůstává nezměněna: Existující uživatelé API automaticky obdrží aktualizaci, zatímco váhy modelu jsou stále k dispozici pod Open CO-license na objímání.
Srovnání výkonu a výkonnosti výkonu
Benchmarkové výsledky DeepSeek-R1-0528 ukazují působivá vylepšení ve všech kategoriích hodnocení. V matematických úkolech se hodnota AIME 2024 zvýšila ze 79,8 na 91,4 procenta, HMMT 2025 ze 41,7 na 79,4 procenta a CNMO 2024 ze 78,8 na 86,9 procenta. Tyto výsledky umístí model jako jeden z nejsilnějších systémů AI pro řešení matematických problémů po celém světě.
S programovacími benchmarky ukazuje DeepSeek-R1-0528 také významný pokrok. Livecodebech se zlepšil z 63,5 na 73,3 procenta, Aider Polyglot z 53,3 na 71,6 procenta a SWE se ověřil ze 49,2 na 57,6 procenta. Hodnocení CodeForces se vyšplhalo z 1 530 na 1 930 bodů, což klasifikuje model v nejvyšší skupině řešitelů algoritmických problémů. Ve srovnání s konkurenčními modely dosáhne DeepSeek-R1 49,2 procenta ve SWE ověřeno, a proto je těsně před OpenAAI O1-1217 s 48,9 procenta, zatímco kódové síly s 96,3 procenta a Elo hodnocení 2029 bodů jsou velmi blízko OpenAIS.
Obecné znalosti a logické testy potvrzují široký nárůst výkonu: GPQA-Diamond vzrostl ze 71,5 na 81,0 procenta, poslední zkoušku lidstva z 8,5 na 17,7 procenta, MMLU-PRO-PRO z 84,0 na 85,0 procenta a MMLU-REDUX z 92,9 na 93,4 procenta. Pouze s OpenAis Simpleqa byl mírný pokles z 30,1 na 27,8 procenta. Tato komplexní vylepšení dokumentují, že DeepSeek-R1-0528 je nejen konkurenceschopný ve specializovaných oblastech, ale v celém spektru kognitivních úkolů.
Technická architektura a inovace
Technický základ DeepSeek-R1-0528 je založen na vysoce rozvinuté architektuře MOE (směs odborníků) s 37 miliardami aktivních parametrů z celkem 671 miliard parametrů a kontextové délce 128 000 žetonů. Model implementuje pokročilé učení o očištění, aby se dosáhlo samosprávy, vícestupňové odrazy a schopnost argumentovat, že je přizpůsoben lidem. Tato architektura umožňuje modelu spravovat složité úkoly uvažování prostřednictvím procesů iterativního myšlení, které rozlišují mezi tradičními hlasovými modely.
Obzvláště inovativním aspektem je vývoj destilované varianty, DeepSeek-R1-0528-QWEN3-8B, který byl vytvořen destilací myšlenek DeepSeek-R1-0528 pro post-trénink základny QWEN3-8B. Tato menší verze dosahuje působivých služeb s výrazně nižšími požadavky na zdroje a lze ji provádět na GPU s 8-12 GB VRAM. Model dosáhl nejmodernějšího výkonu v testu AIME 2024 v modelech s otevřeným zdrojovým kódem s 10 % zlepšením ve srovnání s QWEN3-8B a srovnatelným výkonem, jako je QWEN3-235B-Thinking.
Metodika vývoje ukazuje, že Deepseek se stále více spoléhá na post tréninkové učení, což vedlo k 40 % nárůstu spotřeby tokenů při hodnocení od 71 až 99 milionů žetonů. To ukazuje, že model generuje delší a hlubší odpovědi bez základních architektonických změn.
Pozice na trhu a konkurenční dynamika
DeepSeek-R1-0528 se prosazuje jako vážný konkurent předních proprietárních modelů západních technologických společností. Podle umělé analýzy je model s 68 body na stejné úrovni jako Google Gemini 2.5 Pro a před modely, jako jsou Xais Grok 3 Mini, Metas Llama 4 Maverick a Nvidias Nemotron Ultra. V kategorii kódu dosáhne DeepSeek-R1-0528 úroveň těsně pod O4-Mini a O3.
Zveřejnění aktualizace mělo významný dopad na globální prostředí AI. Původní publikace DeepSeek-R1 již v lednu 2025 vedla k proniknutí technologických podílů mimo Čínu a zpochybnila předpoklad, že škálování AI vyžadovalo obrovskou výpočetní sílu a investice. Reakce západních konkurentů byla rychlá: Google zavedl diskontované přístupové tarify pro Gemini, zatímco OpenAI snížil ceny a zavedl O3 Mini model, který vyžadoval méně výpočetní energie.
Zajímavé je, že analýzy textového stylu z Eqbench ukazují, že DeepSeek-R1 je na Googlu více orientován než na OpenAAI, což naznačuje, že při vývoji mohly být použity více syntetických výstupů Gemini. Toto pozorování podtrhuje složité vlivy a přenos technologií mezi různými vývojáři AI.
Efektivita a dostupnost nákladů
Rozhodující konkurenční výhodou Deepseek-R1-0528 je jeho mimořádná efektivita nákladů. Struktura cen je výrazně levnější než struktura OpenAI: vstupní tokeny stojí 0,14 USD za milion tokenů pro hity mezipaměti a 0,55 USD v mezipaměti, zatímco výstupní tokeny stojí 2,19 $ za milion tokenů. Oproti tomu OpenAI O1 vyžaduje 15 USD za vstupní žetony a 60 USD za výstupní žetony na milion, což činí DeepSeek-R1 o více než 90-95 procent levnější.
Microsoft Azure také nabízí DeepSeek-R1 s konkurenčními cenami: globální verze stojí 0,00135 $ za vstupní žetony a 0,0054 $ za výstupní tokeny na 1 000 žetonů, zatímco regionální verze má o něco vyšší ceny. Díky této ceně je model zvláště atraktivní pro společnosti a vývojáře, kteří chtějí používat vysoce kvalitní funkce AI bez vysokých nákladů na proprietární řešení.
Dostupnost modelu s otevřeným zdrojovým kódem v rámci CO-License také umožňuje komerční použití a úpravu bez licenčních poplatků. Vývojáři mohou model provozovat lokálně nebo používat různá API, která nabízí flexibilitu a kontrolu nad implementací. Pro uživatele s omezenými zdroji je k dispozici destilovaná 8 miliard verze parametrů, která běží na hardwaru spotřebitele s pamětí 24 GB.
Vhodné pro:
Čínská dohánění AI: Co znamená úspěch Deepseek
DeepSeek-R1-0528 znamená zlom v globálním vývoji AI a ukazuje, že čínské společnosti mohou vyvíjet modely navzdory americkým exportním omezením, která konkurují systémům Best Western. Aktualizace dokazuje, že významný výkon se zvyšuje bez zásadních architektonických změn, pokud se účinně používají optimalizace po tréninku a učení o opakovaném zadávání. Kombinace nejvyššího výkonu, drasticky snížených nákladů a otázek dostupnosti s otevřeným zdrojovým kódem zavedené obchodní modely v průmyslu AI.
Reakce západních konkurentů na úspěch Deepseeku již ukazují první změny na trhu: snížení cen na OpenAAI a Google, jakož i vývoj modelů svlékání zdrojů. S očekávanou zveřejněním Deepseek-R2, která byla původně plánována na květen 2025, by se tento konkurenční tlak mohl dále prohloubit. Příběh úspěchu DeepSeek-R1-0528 ukazuje, že inovace v AI nemusí nutně vyžadovat masivní investice a aritmetické zdroje, ale lze je dosáhnout prostřednictvím chytrých algoritmů a účinných metod vývoje.
Vhodné pro:
Vaše transformace AI, integrace AI a odborník na platformu AI
☑️ Naším obchodním jazykem je angličtina nebo němčina
☑️ NOVINKA: Korespondence ve vašem národním jazyce!
Rád vám a mému týmu posloužím jako osobní poradce.
Kontaktovat mě můžete vyplněním kontaktního formuláře nebo mi jednoduše zavolejte na číslo +49 89 89 674 804 (Mnichov) . Moje e-mailová adresa je: wolfenstein ∂ xpert.digital
Těším se na náš společný projekt.