Publicerad: 31 maj 2025 / UPDATE Från: 31 maj 2025 - Författare: Konrad Wolfenstein
Deepseek-R1-0528: Deepseek Update ger kinesisk AI-modell tillbaka i ögonhöjd med västerländska branschledare-image: Xpert.Digital
Öppen källkod AI vid gränsen: Deepseek utför OpenAI och Google i skuggan
Från 60 till 68: Deepseek katapulterade kinesiska AI tillbaka till toppen
Med publiceringen av Deepseek-R1-0528 den 28 maj 2025 uppnådde den kinesiska KI-starten Deepseek en viktig milstolpe som har omdefinierat det globala AI-landskapet. Uppdateringen av den öppna källkodsläsningsmodellen visar dramatiska prestandaökningar och för första gången positionerar Deepseek på samma nivå som OpenAis O3 och Google Gemini 2.5 Pro. Det är särskilt anmärkningsvärt att denna toppprestanda uppnås med en bråkdel av kostnaderna och med helt öppna modellvikter, vilket väcker grundläggande frågor om framtiden för äganderätt AI -system. Den oberoende betygsplattformen Artificial Analysis klassificerar den nya modellen med 68 poäng - ett hopp från 60 till 68 poäng motsvarar prestandakloppet mellan OpenAAI O1 och O3.
Lämplig för detta:
Uppdateringen och dess tekniska förbättringar
Deepseek-R1-0528 representerar en betydande vidareutveckling, som inte kräver några förändringar i den grundläggande arkitekturen, men uppnår betydande ökningar av utbildningen genom algoritmiska optimeringar och ökad användning av aritmetiska resurser. Uppdateringen fokuserar främst på att förbättra resonemangskunskaperna och enligt DeepSeek möjliggör "betydligt djupare tänkande processer". Ett särskilt imponerande exempel på denna förbättring visar i AIME 2025 matematiktest, där noggrannheten ökade från 70 procent till 87,5 procent. Samtidigt ökade det genomsnittliga antalet tokens per fråga från 12 000 till 23 000 tokens, vilket indikerar mer intensiva behandlingsprocesser.
Förutom resonemangsförbättringarna introducerar uppdateringen viktiga nya funktionaliteter, inklusive JSON -utgång och funktionella vyer, ett optimerat användargränssnitt och minskade hallucinationer. Dessa innovationer gör modellen mycket mer praktisk för utvecklare och utvidgar sin omfattning avsevärt. Tillgängligheten förblir oförändrad: Befintliga API-användare får automatiskt uppdateringen, medan modellvikterna fortfarande är tillgängliga under den öppna samlicensen för att krama ansiktet.
Benchmark prestanda och prestandajämförelser
Benchmarkresultaten från Deepseek-R1-0528 visar imponerande förbättringar i alla utvärderingskategorier. I matematiska uppgifter steg AIME 2024 -värdet från 79,8 till 91,4 procent, HMMT 2025 från 41,7 till 79,4 procent och CNMO 2024 från 78,8 till 86,9 procent. Dessa resultat placerar modellen som ett av de mest kraftfulla AI -systemen för matematiska problemlösningar över hela världen.
Med programmering av riktmärken visar Deepseek-R1-0528 också betydande framsteg. LiveCodeBech förbättrades från 63,5 till 73,3 procent, aider polyglot från 53,3 till 71,6 procent och SWE verifierade från 49,2 till 57,6 procent. Codeforces -betyget klättrade från 1 530 till 1 930 poäng, vilket klassificerar modellen i den översta gruppen av algoritmiska problemlösare. Jämfört med konkurrerande modeller når Deepseek-R1 49,2 procent vid SWE-verifierade och är därför precis före OpenAAI O1-1217 med 48,9 procent, medan Codeforces med 96,3 procentsatser och ett ELO-betyg på 2029 poäng är mycket nära OpenAI.
Allmänna kunskaper och logiska test bekräftar den breda ökningen av prestanda: GPQA-diamant ökade från 71,5 till 81,0 procent, mänsklighetens sista tentamen från 8,5 till 17,7 procent, MMLU-PRO från 84,0 till 85,0 procent och MMLU-REDUX från 92,9 till 93,4 procent. Endast med OpenAis SimpleQA var en liten nedgång från 30,1 till 27,8 procent. Dessa omfattande förbättringar dokumenterar att Deepseek-R1-0528 inte bara är konkurrenskraftig i specialiserade områden, utan över hela spektrumet av kognitiva uppgifter.
Teknisk arkitektur och innovationer
Den tekniska grunden för Deepseek-R1-0528 är baserad på en mycket utvecklad MOE (blandning av experter) arkitektur med 37 miljarder aktiva parametrar från totalt 671 miljarder parametrar och en kontextlängd på 128 000 symboler. Modellen implementerar avancerad rengöringsinlärning för att uppnå självkontroll, reflektion med flera scener och förmågan att hävda att det är skräddarsytt för människor. Denna arkitektur gör det möjligt för modellen att hantera komplexa resonemangsuppgifter genom iterativa tänkande, som skiljer mellan traditionella röstmodeller.
En särskilt innovativ aspekt är utvecklingen av en destillerad variant, Deepseek-R1-0528-QWEN3-8B, som skapades genom att destillera tankarna från Deepseek-R1-0528 för efterträning av QWEN3-8B-basen. Denna mindre version uppnår imponerande tjänster med betydligt lägre resurskrav och kan köras på GPU: er med 8-12 GB VRAM. Modellen uppnådde modernaste prestanda i AIME 2024-testet under open source-modeller med en förbättring på 10 procent jämfört med QWEN3-8B och jämförbar prestanda såsom QWEN3-235B-tänkande.
Utvecklingsmetodiken visar att Deepseek alltmer förlitar sig på efterträning med förstärkningslärande, vilket ledde till en 40 procents ökning av tokenförbrukningen i utvärderingen från 71 till 99 miljoner tokens. Detta indikerar att modellen genererar längre och djupare svar utan grundläggande arkitektoniska förändringar.
Marknadsposition och konkurrenskraftig dynamik
Deepseek-R1-0528 etablerar sig som en seriös konkurrent till de ledande äganderätten för västerländska teknikföretag. Enligt konstgjord analys är modellen med 68 poäng på samma nivå som Googles Gemini 2.5 Pro och framför modeller som Xais Grok 3 Mini, Metas Llama 4 Maverick och Nvidias Nemotron Ultra. I kodkategorin når Deepseek-R1-0528 en nivå strax under O4-MINI och O3.
Publiceringen av uppdateringen har haft en betydande inverkan på det globala AI -landskapet. Redan den ursprungliga publiceringen av Deepseek-R1 i januari 2025 ledde till ett inbrott av teknikaktier utanför Kina och ifrågasatte antagandet att skalningen av AI krävde enorm datorkraft och investeringar. Svaret från de västerländska konkurrenterna var snabbt: Google introducerade diskonterade åtkomsttariffer för Tvillingarna, medan OpenAI sänkte priserna och introducerade en O3 Mini -modell som behövde mindre datorkraft.
Intressant nog visar textstilsanalyser från Eqbench att Deepseek-R1 är mer inriktad mot Google än på OpenAAI, vilket indikerar att mer syntetiska Gemini-utgångar kan ha använts i utvecklingen. Denna observation understryker de komplexa påverkan och tekniköverföring mellan de olika AI -utvecklarna.
Kostnadseffektivitet och tillgänglighet
En avgörande konkurrensfördel med Deepseek-R1-0528 är dess extraordinära kostnadseffektivitet. Prisstrukturen är betydligt billigare än för OpenAI: Ingångstokens kostar $ 0,14 per miljon tokens för cache -träffar och $ 0,55 på Cache Misses, medan utgångstokens kostar $ 2,19 per miljon tokens. Som jämförelse kräver OpenAI O1 $ 15 för inmatningstokens och $ 60 för utgångstokens per miljon, vilket gör Deepseek-R1 över 90-95 procent billigare.
Microsoft Azure erbjuder också Deepseek-R1 med konkurrenskraftiga priser: den globala versionen kostar $ 0,00135 för inmatningstokens och $ 0,0054 för utgångstokens per 1 000 tokens, medan den regionala versionen har något högre priser. Denna prissättning gör modellen särskilt attraktiv för företag och utvecklare som vill använda AI-funktioner av hög kvalitet utan de höga kostnaderna för egna lösningar.
Tillgängligheten som en öppen källkodsmodell under co-licens möjliggör också kommersiell användning och modifiering utan licensavgifter. Utvecklare kan använda modellen lokalt eller använda olika API: er, som erbjuder flexibilitet och kontroll över implementeringen. För användare med begränsade resurser är den destillerade 8 miljarder parameterversionen tillgänglig, som körs på konsumenthårdvara med 24 GB -minne.
Lämplig för detta:
Kinas AI Catching Up: Vad framgången för Deepseek betyder
Deepseek-R1-0528 markerar en vändpunkt i den globala AI-utvecklingen och visar att kinesiska företag kan utveckla modeller trots amerikanska exportbegränsningar som konkurrerar med de bästa västerländska systemen. Uppdateringen bevisar att betydande prestanda ökar utan grundläggande arkitektoniska förändringar är möjliga om optimering efter utbildningen och återförsäljningsinlärning effektivt används. Kombinationen av toppprestanda, drastiskt minskade kostnader och frågor om öppen källkodstillgänglighet etablerade affärsmodeller i AI -industrin.
Västra konkurrenternas reaktioner på Deepseeks framgång visar redan de första marknadsförändringarna: prisnedskärningar på OpenAAI och Google samt utvecklingen av resurssparande modeller. Med den förväntade publiceringen av Deepseek-R2, som ursprungligen planerades för maj 2025, kunde detta konkurrenstryck ytterligare intensifiera. Framgångshistorien för Deepseek-R1-0528 visar att innovation i AI inte nödvändigtvis kräver massiva investeringar och aritmetiska resurser, men kan uppnås genom smarta algoritmer och effektiva utvecklingsmetoder.
Lämplig för detta:
Din AI -omvandling, AI -integration och AI -plattformsindustrin Expert
☑ Vårt affärsspråk är engelska eller tyska
☑ Nytt: korrespondens på ditt nationella språk!
Jag är glad att vara tillgänglig för dig och mitt team som personlig konsult.
Du kan kontakta mig genom att fylla i kontaktformuläret eller helt enkelt ringa mig på +49 89 674 804 (München) . Min e -postadress är: Wolfenstein ∂ xpert.digital
Jag ser fram emot vårt gemensamma projekt.