Hangválasztás 📢


DeepSeek-R1-0528: A DeepSeek frissítése visszahozza a kínai AI modellt a szem szintjén a nyugati ipari vezetőkkel

Megjelent: 2025. május 31. / Frissítés: 2025. május 31. - Szerző: Konrad Wolfenstein

DeepSeek-R1-0528: A DeepSeek frissítése visszahozza a kínai AI modellt a szem szintjén a nyugati ipari vezetőkkel

DeepSeek-R1-0528: A DeepSeek frissítése visszahozza a kínai AI modellt a szem szintjén a nyugati ipar vezetõivel-Image: Xpert.digital

Nyílt forráskódú AI a határon: A DeepSeek az Openai -t és a Google -t az árnyékban hajtja végre

60 -tól 68 -ig: A mélymagok katapultáltak a kínai AI -t a tetejére

A DeepSeek-R1-0528 2025. május 28-i közzétételével a kínai KI induló DeepSeek fontos mérföldkövet ért el, amely újradefiniálta a globális AI tájat. A nyílt forráskódú olvasási modell frissítése a drámai teljesítménynövekedést mutatja, és először a helyzetek mélyenként vannak ugyanolyan szinten, mint az Openais O3 és a Google Gemini 2.5 Pro. Különösen figyelemre méltó, hogy ezt a legjobb teljesítményt a költségek töredékével és teljesen nyitott modell súlyokkal érik el, ami alapvető kérdéseket vet fel a tulajdonosi AI rendszerek jövőjével kapcsolatban. A független besorolási platform mesterséges elemzése az új modellt 68 ponttal osztályozza - a 60 -ról 68 pontra való ugrás megegyezik az OpenAai O1 és O3 közötti teljesítménykülönbségre.

Alkalmas:

A frissítés és annak műszaki fejlesztései

A DeepSeek-R1-0528 jelentős továbbfejlesztést jelent, amely nem igényel változtatást az alapvető architektúrában, de a posztképzés jelentős növekedését éri el az algoritmikus optimalizálás és a számtani erőforrások fokozott felhasználása révén. A frissítés elsősorban az érvelési készségek fejlesztésére összpontosít, és a DeepSeek szerint „lényegesen mélyebb gondolkodási folyamatokat” tesz lehetővé. A javulás különösen lenyűgöző példája az AIME 2025 matematikai tesztben mutatkozik meg, ahol a pontosság 70 % -ról 87,5 százalékra emelkedett. Ugyanakkor a kérdésenkénti tokenek átlagos száma 12 000 -ről 23 000 tokenre nőtt, ami intenzívebb feldolgozási folyamatokat jelez.

Az érvelési fejlesztések mellett a frissítés fontos új funkciókat vezet be, ideértve a JSON kimenetet és a funkcionális nézeteket, az optimalizált felhasználói felületet és a csökkent hallucinációkat. Ezek az újítások sokkal praktikusabbá teszik a modellt a fejlesztők számára, és jelentősen kibővítik annak hatályát. A rendelkezésre állás változatlan marad: a meglévő API-felhasználók automatikusan megkapják a frissítést, míg a modell súlya továbbra is elérhető a nyílt társ-licenc alatt az ölelésen.

Benchmark teljesítmény és teljesítmény -összehasonlítások

A DeepSeek-R1-0528 referencia-eredményei lenyűgöző javulást mutatnak az összes értékelési kategóriában. A matematikai feladatokban az AIME 2024 -es érték 79,8 -ról 91,4 % -ra, a HMMT 2025 -ről 41,7 -ről 79,4 százalékra, a CNMO 2024 pedig 78,8,8 -ról 86,9 százalékra emelkedett. Ezek az eredmények a modellt a matematikai problémamegoldások egyik legerősebb AI rendszereként helyezik el világszerte.

A programozási referenciaértékekkel a DeepSeek-R1-0528 szintén jelentős előrelépést mutat. A Livecodebech 63,5 -ről 73,3 % -ra javult, aerid Polyglot 53,3 -ról 71,6 százalékra, és az SWE 49,2 -ről 57,6 százalékra ellenőrizte. A CodeForces besorolás 1530 -ról 1930 pontra emelkedett, ami a modellt az algoritmikus problémamegoldók felső csoportjában osztályozza. A versengő modellekkel összehasonlítva a DeepSeek-R1 eléri a 49,2 százalékot az SWE ellenőrzésével, és ezért csak az OpenAai O1-1217-rel halad előre, 48,9 százalékkal, míg a 96,3 százalékos kódforok és az ELO 2029 pontos besorolása nagyon közel áll az OpenAIS-hez.

Az általános tudás és a logikai tesztek megerősítik a teljesítmény széles körű növekedését: A GPQA-Diamond 71,5-ről 81,0 százalékra emelkedett, az emberiség utolsó vizsga 8,5-ről 17,7 % -ra, az MMLU-PRO 84,0-ról 85,0 % -ra, az MMLU-Redux pedig 92,9-ről 93,4 százalékra emelkedett. Csak az Openais SimpleQA -val volt enyhe csökkenés 30,1 -ről 27,8 százalékra. Ezek az átfogó fejlesztések dokumentálják, hogy a DeepSeek-R1-0528 nemcsak a speciális területeken, hanem a kognitív feladatok teljes spektrumában is versenyképes.

Műszaki építészet és innovációk

A DeepSeek-R1-0528 műszaki alapja egy magasan fejlett MOE (szakértői építészet keverékén) alapul, 37 milliárd aktív paraméterrel, összesen 671 milliárd paraméterből és a kontextus hossza 128 000 tokenből. A modell végrehajtja a fejlett tisztítási tanulást az önellenőrzés, a többlépcsős reflexió és az emberekhez igazított érvelés képességének elérése érdekében. Ez az architektúra lehetővé teszi a modell számára, hogy az összetett érvelési feladatokat iteratív gondolkodási folyamatokon keresztül kezelje, amelyek megkülönböztetik a hagyományos hangmodelleket.

Különösen innovatív szempont a desztillált változat, a DeepSeek-R1-0528-QWEN3-8B ​​kifejlesztése, amelyet a DeepSeek-R1-0528 gondolatainak desztillálásával hoztak létre a QWEN3-8B ​​bázis utáni képzés után. Ez a kisebb verzió lenyűgöző szolgáltatásokat ér el, amelyek lényegesen alacsonyabb erőforrás-követelményekkel járnak, és 8-12 GB-os VRAM-mal GPU-kon futtathatók. A modell az AIME 2024 tesztben a legmodernebb teljesítményt érte el nyílt forráskódú modellekben, 10 % -os javulással, összehasonlítva a QWEN3-8B-vel és az összehasonlítható teljesítménygel, mint például a QWEN3-235B-gondolkodás.

A fejlesztési módszertan azt mutatja, hogy a DeepSeek egyre inkább az edzés utáni megerősítés tanulására támaszkodik, ami a tokenfogyasztás 40 % -os növekedéséhez vezetett az értékelésben, a 71-től 99 millió tokenből. Ez azt jelzi, hogy a modell hosszabb és mélyebb válaszokat generál alapvető építészeti változások nélkül.

Piaci helyzet és versenydinamika

A DeepSeek-R1-0528 komoly versenytársává válik a nyugati technológiai vállalatok vezető szabadalmaztatott modelljeinek. A mesterséges elemzés szerint a 68 ponttal rendelkező modell megegyezik a Google Gemini 2.5 Pro -val, és olyan modellek előtt, mint például a Xais Grok 3 Mini, a Metas Llama 4 Maverick és az Nvidias Nemotron Ultra. A kódkategóriában a DeepSeek-R1-0528 eléri az O4-Mini és az O3 alatti szintet.

A frissítés közzététele jelentős hatással volt a globális AI tájra. A DeepSeek-R1 eredeti kiadványa már 2025 januárjában a technológiai részvények betöréséhez vezetett Kínán kívül, és megkérdőjelezte azt a feltételezést, hogy az AI méretezéséhez óriási számítási energiát és befektetéseket igényelt. A nyugati versenytársak válasza gyors volt: a Google bevezette az Ikrek kedvezményes hozzáférési tarifáit, míg az Openai csökkentette az árakat és bevezetett egy O3 mini modellt, amelynek kevesebb számítási teljesítményre volt szüksége.

Érdekes módon az EqBench szöveges stílusú elemzése azt mutatja, hogy a DeepSeek-R1 inkább a Google felé irányul, mint az OpenAAI-nál, ami azt jelzi, hogy a fejlődésben szintetikus gemini kimeneteket alkalmazhatnak. Ez a megfigyelés hangsúlyozza a különféle AI fejlesztők bonyolult befolyásait és technológiájának átadását.

Költséghatékonyság és elérhetőség

A DeepSeek-R1-0528 döntő versenyelőnye a rendkívüli költséghatékonysága. Az árstruktúra szignifikánsan olcsóbb, mint az OpenAié: a bemeneti tokenek 0,14 dollárba kerülnek a gyorsítótár -találatoknál és 0,55 dollárba a gyorsítótár -hiányosságoknál, míg a kimeneti tokenek 2,19 dollárba kerülnek. Összehasonlításképpen: az OpenAI O1 15 dollárt igényel a bemeneti tokenekhez és 60 dollárt a output tokenekre / millióra, ami a DeepSeek-R1-et 90-95 százalék felett olcsóbbá teszi.

A Microsoft Azure a DeepSeek-R1 versenyképes árakkal is kínál: a globális verzió 0,00135 dollárba kerül a bemeneti tokenekért és 0,0054 dollárért a output tokeneknél 1000 tokenként, míg a regionális verzió valamivel magasabb árakkal rendelkezik. Ez az árazás különösen vonzóvá teszi a modellt azoknak a vállalatoknak és fejlesztőknek, akik magas színvonalú AI funkciókat akarnak használni a szabadalmaztatott megoldások magas költségei nélkül.

A rendelkezésre állás nyílt forráskódú modellként a Co-license alatt lehetővé teszi a kereskedelmi felhasználást és a módosítást licenc díjak nélkül. A fejlesztők helyben működtethetik a modellt, vagy különféle API -kat is használhatnak, amelyek rugalmasságot és ellenőrzést nyújtanak a megvalósítás felett. A korlátozott erőforrásokkal rendelkező felhasználók számára a desztillált 8 milliárd paraméter verzió elérhető, amely 24 GB -os memóriával rendelkező fogyasztói hardveren fut.

Alkalmas:

Kína AI felzárkózása: Mit jelent a DeepSeek sikere

A DeepSeek-R1-0528 fordulópontot jelent a globális AI fejlesztésben, és bemutatja, hogy a kínai vállalatok modelleket fejleszthetnek ki az Egyesült Államok exportkorlátozása ellenére, amelyek versenyeznek a legjobb nyugati rendszerekkel. A frissítés azt bizonyítja, hogy a jelentős teljesítmény növekszik az alapvető építészeti változások nélkül, ha az edzés utáni optimalizálás és az újbóli erőfeszítések tanulását hatékonyan használják. A legjobb teljesítmény, a drasztikusan csökkentett költségek és a nyílt forrású rendelkezésre állási kérdések kombinációja létrehozta az AI iparágban működő üzleti modelleket.

A nyugati versenytársak Reakciói a DeepSeek sikerére már megmutatják az első piaci változásokat: az Openaai és a Google árcsökkentése, valamint az erőforrás -befogadó modellek fejlesztése. A DeepSeek-R2 várható közzétételével, amelyet eredetileg 2025 májusában terveztek, ez a versenynyomás tovább fokozhatja. A DeepSeek-R1-0528 sikertörténete azt mutatja, hogy az AI innovációja nem feltétlenül igényel hatalmas beruházásokat és számtani erőforrásokat, hanem okos algoritmusokkal és hatékony fejlesztési módszerekkel érhető el.

Alkalmas:

 

Az AI átalakulása, AI integráció és AI platformipar szakértője

☑️ Üzleti nyelvünk angol vagy német

☑️ ÚJ: Levelezés az Ön nemzeti nyelvén!

 

Digitális úttörő – Konrad Wolfenstein

Konrad Wolfenstein

Szívesen szolgálok Önt és csapatomat személyes tanácsadóként.

Felveheti velem a kapcsolatot az itt található kapcsolatfelvételi űrlap kitöltésével , vagy egyszerűen hívjon a +49 89 89 674 804 (München) . Az e-mail címem: wolfenstein xpert.digital

Nagyon várom a közös projektünket.

 

 

☑️ KKV-k támogatása stratégiában, tanácsadásban, tervezésben és megvalósításban

☑️ Az AI stratégia létrehozása vagy átrendezése

☑️ Úttörő vállalkozásfejlesztés


⭐️ Mesterséges intelligencia (KI) -i blog, hotspot és tartalomközpont ⭐️ AIS mesterséges intelligencia keresés / KIS-Ki-Search / Neo SEO = NSEO (Next-Gen keresőmotor optimalizálása) ⭐️ Kína ⭐️ Xpaper