Avaldatud: 31. mail 2025 / Värskendus: 31. mai 2025 - autor: Konrad Wolfenstein
Deepseek-R1-0528: Deepseek Update toob Hiina AI-mudeli tagasi Lääne tööstuse liidritega: Xpert.digital
Avatud lähtekoodiga AI piiril: Deepseek esitab varjus OpenAi ja Google'i
60–68: Deepseek katapulteerus Hiina AI tagasi tippu
Deepseek-R1-0528 avaldamisega 28. mail 2025 saavutas Hiina Ki startup Deepseek olulise verstaposti, mis on ülemaailmse AI maastiku uuesti määratlenud. Avatud lähtekoodiga lugemismudeli värskendus näitab dramaatilist jõudlust ja positsioneerib esmakordselt samal tasemel OpenAis O3 ja Google Gemini 2.5 Pro. Eriti tähelepanuväärne on see, et see peamine jõudlus saavutatakse murdosa kuludest ja täiesti avatud mudeliraskustega, mis tõstatab põhiküsimusi patenteeritud AI -süsteemide tuleviku kohta. Sõltumatu reitinguplatvormi kunstlik analüüs liigitab uue mudeli 68 punktiga - hüpe 60 -lt 68 punktile vastab OpenAai O1 ja O3 jõudluse erinevusele.
Sobib selleks:
Värskendus ja selle tehnilised parandused
Deepseek-R1-0528 kujutab endast olulist edasist arengut, mis ei nõua põhilise arhitektuuri muudatusi, vaid saavutab treeningujärgse olulise suurenemise algoritmiliste optimeerimiste ja aritmeetiliste ressursside suurenenud kasutamise kaudu. Uuendus keskendub peamiselt mõttekäikude parandamisele ja võimaldab Deepseeki sõnul „oluliselt sügavamaid mõtlemisprotsesse”. Eriti muljetavaldav näide selle paranemise kohta näitab AIME 2025 matemaatika testis, kus täpsus tõusis 70 protsendilt 87,5 protsendini. Samal ajal kasvas keskmine žetoonide arv küsimuse kohta 12 000 -lt 23 000 -ni, mis näitab intensiivsemaid töötlemisprotsesse.
Lisaks arutluskäigu parandamisele tutvustab värskendus olulisi uusi funktsioone, sealhulgas JSON -i väljund ja funktsionaalsed vaated, optimeeritud kasutajaliides ja vähendatud hallutsinatsioonid. Need uuendused muudavad mudeli arendajatele palju praktilisemaks ja laiendavad selle ulatust märkimisväärselt. Kättesaadavus jääb muutumatuks: olemasolevad API-kasutajad saavad värskenduse automaatselt, samal ajal kui mudeli kaal on endiselt saadaval avatud kaasekliidi all.
Võrdlusaluse jõudlus ja jõudluse võrdlused
Deepseek-R1-0528 võrdlustulemused näitavad muljetavaldavaid parandusi kõigi hindamiskategooriate vahel. Matemaatiliste ülesannete korral tõusis AIME 2024 väärtus 79,8 -lt 91,4 protsendile, HMMT 2025 -lt 41,7 -lt 79,4 protsendile ja CNMO 2024 78,8 -lt 86,9 protsendini. Need tulemused positsioneerivad mudelit kogu maailmas matemaatiliste probleemide lahenduste ühe võimsaima AI -süsteemina.
Programmeerimisvõlakirjadega näitab DeepSEEK-R1-0528 ka märkimisväärset edu. LiveCodebech paranes 63,5 -lt 73,3 protsendile, Aider Polyglot 53,3 -lt 71,6 protsendile ja SWE -le kontrolliti 49,2 -lt 57,6 protsendile. CodeForces'i hinnang tõusis 1530 -lt 1930 punktile, mis klassifitseerib mudeli algoritmiliste probleemide lahendajate parima rühma. Võrreldes konkureerivate mudelitega ulatub DeepSEEK-R1 SWE-s 49,2 protsendini ja seetõttu on see OpenAAI O1-1217 ees 48,9 protsendiga, samas kui 96,3 protsendiga CodeForces ja 2029 punkti ELO reiting on OpenAisile väga lähedal.
Üldised teadmised ja loogikatestid kinnitavad jõudluse laialdast suurenemist: GPQA-Diamond tõusis 71,5-lt 81,0 protsendini, inimkonna viimane eksam 8,5-lt 17,7 protsendini, MMLU-Pro 84,0-lt 85,0 protsendile ja MMLU-Redux 92,9-lt 93,4 protsendile. Ainult OpenAis Simpleqa puhul oli väike langus 30,1 -lt 27,8 protsendini. Need põhjalikud parandused dokumenteerivad, et DeepSEEK-R1-0528 pole mitte ainult spetsialiseerunud piirkondades konkurentsivõimeline, vaid kogu kognitiivsete ülesannete spektris.
Tehniline arhitektuur ja uuendused
Deepseek-R1-0528 tehniline alus põhineb kõrgelt arenenud MOE (ekspertide segu) arhitektuuril, mille 37 miljardit aktiivset parameetrit on kokku 671 miljardit parameetrit ja konteksti pikkus 128 000 märki. Mudel rakendab täiustatud puhaskaitseõppe, et saavutada enesekontroll, mitmeastmeline peegeldus ja võime vaielda, mis on kohandatud inimestele. See arhitektuur võimaldab mudelil hallata keerulisi mõttekäike iteratiivsete mõtlemisprotsesside kaudu, mis eristab traditsioonilisi häälmudeleid.
Eriti uuenduslik aspekt on destilleeritud variandi, DeepSEEEK-R1-0528-QWEN3-8B arendamine, mis loodi DeepSEEEK-R1-0528 mõtete destilleerimisega QWEN3-8B baasi postitreeningu jaoks. See väiksem versioon saavutab muljetavaldavaid teenuseid, millel on oluliselt madalamad ressursside nõuded ja seda saab GPU-del käitada 8–12 GB VRAM-iga. Mudel saavutas AIME 2024 testis tipptasemel jõudluse avatud lähtekoodiga mudelitega 10-protsendilise paranemisega võrreldes QWEN3-8B ja võrreldava jõudlusega, näiteks QWEN3-235B-mõtlemisega.
Arendusmetoodika näitab, et Deepseek tugineb üha enam treeningujärgsele tugevdusõppele, mis tõi kaasa sümboolse tarbimise suurenemise hindamisel 40 protsenti 71–99 miljonist märgist. See näitab, et mudel genereerib pikemaid ja sügavamaid vastuseid ilma põhiliste arhitektuuriliste muutusteta.
Turupositsioon ja konkurentsdünaamika
DeepSEEK-R1-0528 määrab end tõsiseks konkurendiks lääne tehnoloogiaettevõtete juhtivatele patenteeritud mudelitele. Kunstliku analüüsi kohaselt on 68 punktiga mudel samal tasemel kui Google'i Gemini 2.5 Pro ja selliste mudelite nagu Xais Grok 3 Mini, Metas Llama 4 Maverick ja Nvidias Nemotron Ultra ees. Koodi kategoorias jõuab Deepseek-R1-0528 tasemele veidi alla O4-Mini ja O3.
Uuenduse avaldamisel on märkimisväärselt mõju AI maastikule. Juba Deepseek-R1 algne väljaanne jaanuaris 2025 viis tehnoloogiaosade puhkemiseni väljaspool Hiinat ja seadis kahtluse alla eelduse, et AI skaleerimine nõudis tohutut arvutusvõimet ja investeeringuid. Lääne konkurentide vastus oli kiire: Google tutvustas Kaksikute jaoks soodushinnaga juurdepääsu tariife, samal ajal kui OpenAi alandas hindu ja tutvustas O3 Mini mudelit, mis vajas vähem arvutusvõimsust.
Huvitav on see, et EQBenchi teksti stiilis analüüsid näitavad, et Deepseek-R1 on rohkem suunatud Google'i kui OpenAAI-le, mis näitab, et arengus võis kasutada sünteetilisemaid Kaksikute väljundeid. See tähelepanek rõhutab keerulisi mõjutusi ja tehnoloogia ülekandmist erinevate AI arendajate vahel.
Kuluefektiivsus ja kättesaadavus
Deepseek-R1-0528 otsustav konkurentsieelis on selle erakordne kulutõhusus. Hinnastruktuur on märkimisväärselt odavam kui OpenAi oma: sisendmärgid maksavad vahemäluhittide eest 0,14 miljonit dollarit ja vahemälu vahele jäädes 0,55 dollarit, väljundmärgid aga 2,19 dollarit miljoni tokeni kohta. Võrdluseks on OpenAi O1 vaja sisendmärkide eest 15 dollarit ja 60 dollarit väljundmärkide eest miljoni kohta, mis teeb DeepSEEK-R1 üle 90–95 protsendi odavamaks.
Microsoft Azure pakub ka konkurentsivõimeliste hindadega Deepseek-R1: globaalne versioon maksab sisestusmärkide eest 0,00135 dollarit ja 0,0054 dollarit väljundmärkide eest 1000 märgi kohta, samas kui piirkondlikul versioonil on pisut kõrgemad hinnad. See hinnakujundus muudab mudeli eriti atraktiivseks ettevõtetele ja arendajatele, kes soovivad kasutada kvaliteetseid AI-funktsioone, ilma et neil oleks kõrgeid lahendusi.
Kättesaadav avatud lähtekoodiga mudelina kaaslitsentsil võimaldab ka ärilist kasutamist ja muutmist ilma litsentsitasudeta. Arendajad saavad mudelit lokaalselt kasutada või kasutada erinevaid API -sid, mis pakub paindlikkust ja kontrolli rakenduse üle. Piiratud ressurssidega kasutajatele on saadaval destilleeritud 8 miljardit parameetri versiooni, mis töötab tarbija riistvaraga 24 GB mäluga.
Sobib selleks:
Hiina AI jõuab järele: mida tähendab Deepseeki edu
DeepSEEK-R1-0528 tähistab pöördepunkti AI globaalse arendamise osas ja näitab, et Hiina ettevõtted saavad mudeleid välja töötada hoolimata USA ekspordipiirangutest, mis konkureerivad parimate läänesüsteemidega. Värskendus tõestab, et olulist jõudlust suureneb ilma põhiliste arhitektuuriliste muutusteta, kui tõhusalt kasutatakse treeningujärgset optimeerimist ja ümberkorraldamise õppimist. Parimate tulemuste kombinatsioon, drastiliselt vähenenud kulud ja avatud lähtekoodiga saadavusega seotud küsimused kehtestasid AI -tööstuses ärimudelid.
Lääne konkurentide reaktsioonid Deepseeki edule näitavad juba esimesi turumuutusi: hindade kärped OpenAai ja Google'is, samuti ressursside säästmise mudelite väljatöötamine. Algselt 2025. aasta maiks kavandatud Deepseek-R2 eeldatava väljaande abil võib see konkurentsisurve veelgi intensiivistuda. Deepseek-R1-0528 edulugu näitab, et innovatsioon AI-s ei vaja tingimata suuri investeeringuid ja aritmeetilisi ressursse, vaid seda saab saavutada nutikate algoritmide ja tõhusate arendusmeetodite abil.
Sobib selleks:
Teie AI ümberkujundamine, AI integreerimine ja AI platvormi tööstuse ekspert
☑️ Meie ärikeel on inglise või sakslane
☑️ Uus: kirjavahetus teie riigikeeles!
Mul on hea meel, et olete teile ja minu meeskonnale isikliku konsultandina kättesaadav.
Võite minuga ühendust võtta, täites siin kontaktvormi või helistage mulle lihtsalt telefonil +49 89 674 804 (München) . Minu e -posti aadress on: Wolfenstein ∂ xpert.digital
Ootan meie ühist projekti.