Webhely ikonra Xpert.Digital

DeepSeek-R1-0528: A DeepSeek frissítése a kínai mesterséges intelligencia modellt a nyugati iparági vezetők szintjére hozza vissza

DeepSeek-R1-0528: A DeepSeek frissítése a kínai mesterséges intelligencia modellt a nyugati iparági vezetők szintjére hozza vissza

DeepSeek-R1-0528: A DeepSeek frissítése a kínai mesterséges intelligencia modellt a nyugati iparági vezetők szintjére emeli – Kép: Xpert.Digital

A nyílt forráskódú mesterséges intelligencia a határán: a DeepSeek beárnyékolja az OpenAI-t és a Google-t

60-ról 68-ra: A DeepSeek visszarepíti a kínai mesterséges intelligenciát a csúcsra

A kínai mesterséges intelligencia startup, a DeepSeek jelentős mérföldkőhöz ért a DeepSeek-R1-0528 2025. május 28-i megjelenésével, újradefiniálva a globális mesterséges intelligencia tájképét. A nyílt forráskódú érvelési modell frissítése drámai teljesítményjavulást mutat, a DeepSeeket először helyezve egy szintre az OpenAI o3-mal és a Google Gemini 2.5 Pro-val. Különösen figyelemre méltó, hogy ezt a csúcsteljesítményt a költségek töredékéért és teljesen nyitott modellsúlyokkal érik el, ami alapvető kérdéseket vet fel a saját fejlesztésű mesterséges intelligenciarendszerek jövőjével kapcsolatban. A független Artificial Analysis értékelő platform 68 pontot adott az új modellnek – ez 60-ról 68 pontra ugrás, ami megfelel az OpenAI o1 és o3 közötti teljesítménykülönbségnek.

Alkalmas:

A frissítés és technikai fejlesztései

A DeepSeek-R1-0528 egy jelentős fejlesztést képvisel, amely jelentős teljesítményjavulást ér el az algoritmikus optimalizálás és a számítási erőforrások fokozott felhasználása révén az utólagos képzés során, az alapul szolgáló architektúra megváltoztatása nélkül. A frissítés elsősorban az érvelési képességek javítására összpontosít, lehetővé téve a DeepSeek szerint „jelentősen mélyebb gondolkodási folyamatokat”. Ennek a javulásnak egy különösen lenyűgöző példája az AIME 2025 matematikai teszt, ahol a pontosság 70 százalékról 87,5 százalékra nőtt. Ezzel egyidejűleg a kérdésenkénti átlagos tokenek száma 12 000-ről 23 000 tokenre nőtt, ami intenzívebb feldolgozásra utal.

Az érvelési fejlesztések mellett a frissítés fontos új funkciókat is bevezet, beleértve a JSON kimenetet és függvényhívásokat, az optimalizált felhasználói felületet és a hallucinációk csökkentését. Ezek a fejlesztések jelentősen praktikusabbá teszik a modellt a fejlesztők számára, és jelentősen kibővítik a hatókörét. Az elérhetőség változatlan marad: A meglévő API-felhasználók automatikusan megkapják a frissítést, míg a modell súlyai ​​továbbra is elérhetők lesznek a nyílt MIT licenc alatt a Hugging Face-en.

Benchmark teljesítmény és teljesítmény-összehasonlítások

A DeepSeek-R1-0528 benchmarkeredményei lenyűgöző javulást mutatnak minden értékelési kategóriában. A matematikai feladatokban az AIME-2024 pontszáma 79,8-ról 91,4 százalékra, a HMMT-2025 pontszáma 41,7-ről 79,4 százalékra, a CNMO-2024 pontszáma pedig 78,8-ról 86,9 százalékra nőtt. Ezek az eredmények a modellt a matematikai problémamegoldás egyik legerősebb mesterséges intelligencia rendszerévé teszik világszerte.

A DeepSeek-R1-0528 jelentős előrelépést mutat a programozási benchmarkok terén is. A LiveCodeBench 63,5-ről 73,3 százalékra, az Aider-Polyglot 53,3-ról 71,6 százalékra, az SWE Verified pedig 49,2-ről 57,6 százalékra javult. A Codeforces értékelése 1530 pontról 1930-ra emelkedett, ezzel a modell a legjobb algoritmikus problémamegoldók közé került. A versenytárs modellekhez képest a DeepSeek-R1 49,2 százalékot ér el az SWE Verified teszten, amivel közvetlenül megelőzi az OpenAI o1-1217-et 48,9 százalékkal, míg a Codeforces teszten 96,3 percentilissel és 2029 pontos Elo-értékeléssel nagyon közel áll az OpenAI vezető modelljéhez.

Az általános tudástesztek és a logikai tesztek is megerősítik a széleskörű teljesítményjavulást: a GPQA-Diamond 71,5-ről 81,0 százalékra, a Humanity's Last Exam 8,5-ről 17,7 százalékra, az MMLU-Pro 84,0-ről 85,0 százalékra, az MMLU-Redux pedig 92,9-ről 93,4 százalékra nőtt. Csak az OpenAI SimpleQA-ja mutatott enyhe visszaesést 30,1-ről 27,8 százalékra. Ezek az átfogó fejlesztések azt mutatják, hogy a DeepSeek-R1-0528 nemcsak a speciális területeken, hanem a kognitív feladatok teljes spektrumában versenyképes.

Műszaki architektúra és innovációk

A DeepSeek-R1-0528 technikai alapja egy kifinomult MoE (Mixture of Experts) architektúrán alapul, amely összesen 671 milliárd paraméterből 37 milliárd aktív paramétert és 128 000 token kontextushosszt használ. A modell fejlett megerősítéses tanulást alkalmaz az önellenőrzés, a többlépcsős reflexió és az emberszerű gondolkodási képességek elérése érdekében. Ez az architektúra lehetővé teszi a modell számára, hogy iteratív gondolkodási folyamatokon keresztül oldja meg az összetett érvelési feladatokat, ami megkülönbözteti a hagyományos nyelvi modellektől.

Különösen innovatív aspektus a DeepSeek-R1-0528-Qwen3-8B desztillált változatának kifejlesztése, amelyet a DeepSeek-R1-0528 gondolkodásmódjának desztillálásával hoztak létre a Qwen3-8B-Base utóképzéséhez. Ez a kisebb verzió lenyűgöző teljesítményt ér el jelentősen alacsonyabb erőforrásigény mellett, és 8-12 GB VRAM-mal rendelkező GPU-kon fut. Az AIME 2024 tesztben a modell a nyílt forráskódú modellek között a legmodernebb teljesítményt érte el, 10 százalékos javulással a Qwen3-8B-hez képest, és a Qwen3-235B-Thinkinghez hasonló teljesítménnyel.

A fejlesztési módszertan azt mutatja, hogy a DeepSeek egyre inkább a megerősítéses tanulással járó utóképzésre támaszkodik, ami a tokenfelhasználás 40%-os növekedéséhez vezetett az értékelés során – 71 millió tokenről 99 millióra. Ez arra utal, hogy a modell hosszabb és mélyebb válaszokat generál alapvető architektúrai változtatások nélkül.

Piaci pozíció és versenydinamika

A DeepSeek-R1-0528 komoly versenytárssá válik a nyugati technológiai vállalatok vezető, saját fejlesztésű modelljeivel szemben. Az Artificial Analysis szerint a modell 68 pontot szerzett, amivel a Google Gemini 2.5 Pro-jával egy szinten van, és megelőzi az olyan modelleket, mint az xAI Grok 3 minije, a Meta Llama 4 Maverickje és az Nvidia Nemotron Ultra. A kód kategóriában a DeepSeek-R1-0528 az OpenAI o4-minije és o3-a alatt teljesít.

A frissítés kiadása jelentős hatással volt a globális mesterséges intelligencia környezetre. A DeepSeek-R1 2025 januári kezdeti megjelenése már a kínai technológiai részvények árfolyamának zuhanásához vezetett, és megkérdőjelezte azt a feltételezést, hogy a mesterséges intelligencia skálázása hatalmas számítási teljesítményt és beruházást igényel. A nyugati versenytársak gyorsan reagáltak: a Google kedvezményes hozzáférési díjakat vezetett be a Geminihez, míg az OpenAI csökkentette az árakat, és bemutatott egy o3 Mini modellt, amely kevesebb számítási teljesítményt igényel.

Érdekes módon az EQBench szövegstílus-elemzései azt mutatják, hogy a DeepSeek-R1 stílusát erősebben befolyásolja a Google, mint az OpenAI, ami arra utal, hogy a fejlesztése során több szintetikus Gemini-kimenetet használhattak. Ez a megfigyelés kiemeli a különböző MI-fejlesztők közötti összetett hatásokat és technológiaátadásokat.

Költséghatékonyság és rendelkezésre állás

A DeepSeek-R1-0528 egyik fő versenyelőnye a kivételes költséghatékonyságában rejlik. Árszerkezete jelentősen kedvezőbb, mint az OpenAI-é: a bemeneti tokenek ára 0,14 dollár millió tokenenként gyorsítótár-találatok és 0,55 dollár gyorsítótár-hibák esetén, míg a kimeneti tokenek ára 2,19 dollár millió tokenenként. Összehasonlításképpen, az OpenAI o1 15 dollárt kér a bemeneti tokenekért és 60 dollárt a kimeneti tokenekért millió tokenenként, így a DeepSeek-R1 90-95 százalékkal olcsóbb.

A Microsoft Azure a DeepSeek-R1-et is versenyképes áron kínálja: a globális verzió ára 0,00135 dollár a bemeneti tokenekért és 0,0054 dollár a kimeneti tokenekért 1000 tokenenként, míg a regionális verzió ára valamivel magasabb. Ez az árazás különösen vonzóvá teszi a modellt azoknak a vállalatoknak és fejlesztőknek, akik kiváló minőségű mesterséges intelligencia funkciókat szeretnének kihasználni a saját megoldások magas költségei nélkül.

Az MIT licenc alatti nyílt forráskódú modellként való elérhetősége lehetővé teszi a kereskedelmi felhasználást és módosítást licencdíjak nélkül. A fejlesztők lokálisan futtathatják a modellt, vagy különféle API-kon keresztül használhatják, ami rugalmasságot és a megvalósítás feletti kontrollt biztosít. Korlátozott erőforrásokkal rendelkező felhasználók számára elérhető egy desztillált, 8 milliárd paraméteres verzió, amely 24 GB memóriával rendelkező fogyasztói hardveren fut.

Alkalmas:

Kína felzárkózik a mesterséges intelligencia terén: Mit jelent a DeepSeek sikere?

A DeepSeek-R1-0528 fordulópontot jelent a globális mesterséges intelligencia fejlesztésében, bizonyítva, hogy a kínai vállalatok olyan modelleket tudnak fejleszteni, amelyek az amerikai exportkorlátozások ellenére is versenyképesek a legjobb nyugati rendszerekkel. A frissítés bizonyítja, hogy jelentős teljesítményjavítás lehetséges alapvető architektúrális változtatások nélkül, ha a betanítás utáni optimalizálásokat és a megerősítéses tanulást hatékonyan alkalmazzák. A csúcsteljesítmény, a drasztikusan csökkentett költségek és a nyílt forráskódú elérhetőség kombinációja alapvetően megkérdőjelezi a mesterséges intelligencia iparágban bevett üzleti modelleket.

A nyugati versenytársak DeepSeek sikerére adott reakciói már mutatják a kezdeti piaci változásokat: az OpenAI és a Google árcsökkentései, valamint az erőforrás-hatékonyabb modellek fejlesztése. A DeepSeek-R2 várható, 2025 májusára tervezett megjelenésével ez a versenynyomás tovább fokozódhat. A DeepSeek-R1-0528 sikertörténete azt szemlélteti, hogy a mesterséges intelligencia innovációja nem feltétlenül igényel hatalmas beruházásokat és számítási erőforrásokat, hanem okos algoritmusok és hatékony fejlesztési módszerek segítségével érhető el.

Alkalmas:

 

Az AI átalakulása, AI integráció és AI platformipar szakértője

☑️ Üzleti nyelvünk angol vagy német

☑️ ÚJ: Levelezés az Ön nemzeti nyelvén!

 

Konrad Wolfenstein

Szívesen szolgálok Önt és csapatomat személyes tanácsadóként.

Felveheti velem a kapcsolatot az itt található kapcsolatfelvételi űrlap kitöltésével , vagy egyszerűen hívjon a +49 89 89 674 804 (München) . Az e-mail címem: wolfenstein xpert.digital

Nagyon várom a közös projektünket.

 

 

☑️ KKV-k támogatása stratégiában, tanácsadásban, tervezésben és megvalósításban

☑️ Az AI stratégia létrehozása vagy átrendezése

☑️ Úttörő vállalkozásfejlesztés

Lépjen ki a mobil verzióból