Publicerad den: 31 maj 2025 / Uppdaterad den: 31 maj 2025 – Författare: Konrad Wolfenstein

DeepSeek-R1-0528: DeepSeek-uppdateringen gör att den kinesiska AI-modellen återigen är i nivå med västerländska branschledare – Bild: Xpert.Digital
Öppen källkods-AI vid sin gräns: DeepSeek överskuggar OpenAI och Google
Från 60 till 68: DeepSeek katapulterar kinesisk AI tillbaka till toppen
Den kinesiska AI-startupen DeepSeek nådde en betydande milstolpe med lanseringen av DeepSeek-R1-0528 den 28 maj 2025, vilket omdefinierade det globala AI-landskapet. Uppdateringen av den öppna källkodsmodellen visar dramatiska prestandaförbättringar och placerar DeepSeek för första gången i nivå med OpenAIs o3 och Google Gemini 2.5 Pro. Särskilt anmärkningsvärt är att denna topprestanda uppnås till en bråkdel av kostnaden och med helt öppna modellvikter, vilket väcker grundläggande frågor om framtiden för proprietära AI-system. Den oberoende betygsplattformen Artificial Analysis gav den nya modellen 68 poäng – ett hopp från 60 till 68 poäng som motsvarar prestandaskillnaden mellan OpenAI o1 och o3.
Lämplig för detta:
- DeepSeek och Alibaba: Ett genombrott på specialistnivå? Den kinesiska AI-satsningen inom sjukvården.
Uppdateringen och dess tekniska förbättringar
DeepSeek-R1-0528 representerar en betydande förbättring som uppnår betydande prestandaförbättringar genom algoritmiska optimeringar och ökad användning av beräkningsresurser i efterträning, utan att ändra den underliggande arkitekturen. Uppdateringen fokuserar främst på att förbättra resonemangsförmågan, vilket möjliggör, enligt DeepSeek, "avsevärt djupare tankeprocesser". Ett särskilt imponerande exempel på denna förbättring ses i matematikprovet AIME 2025, där noggrannheten ökade från 70 procent till 87,5 procent. Samtidigt ökade det genomsnittliga antalet tokens per fråga från 12 000 till 23 000 tokens, vilket indikerar mer intensiv bearbetning.
Förutom förbättringar i resonemanget introducerar uppdateringen viktiga nya funktioner, inklusive JSON-utdata och funktionsanrop, ett optimerat användargränssnitt och minskade hallucinationer. Dessa förbättringar gör modellen betydligt mer praktisk för utvecklare och utökar dess omfattning avsevärt. Tillgängligheten förblir oförändrad: Befintliga API-användare kommer att få uppdateringen automatiskt, medan modellvikterna fortsätter att vara tillgängliga under den öppna MIT-licensen på Hugging Face.
Jämförelse av prestanda och prestandajämförelser
Benchmarkresultaten för DeepSeek-R1-0528 visar imponerande förbättringar inom alla utvärderingskategorier. I matematiska uppgifter ökade AIME-2024-poängen från 79,8 till 91,4 procent, HMMT-2025 från 41,7 till 79,4 procent och CNMO-2024 från 78,8 till 86,9 procent. Dessa resultat positionerar modellen som ett av de mest kraftfulla AI-systemen för matematisk problemlösning världen över.
DeepSeek-R1-0528 visar också betydande framsteg i programmeringsbenchmarks. LiveCodeBench förbättrades från 63,5 till 73,3 procent, Aider-Polyglot från 53,3 till 71,6 procent och SWE Verified från 49,2 till 57,6 procent. Codeforces-betyget klättrade från 1 530 till 1 930 poäng, vilket placerade modellen bland de bästa algoritmiska problemlösarna. Jämfört med konkurrerande modeller uppnår DeepSeek-R1 49,2 procent i SWE Verified, vilket placerar den strax före OpenAI o1-1217 med 48,9 procent, medan den i Codeforces, med 96,3 percentiler och ett Elo-betyg på 2 029 poäng, kommer mycket nära OpenAIs ledande modell.
Allmänna kunskaps- och logiktester bekräftar den breda prestandaförbättringen: GPQA-Diamond ökade från 71,5 till 81,0 procent, Humanity's Last Exam från 8,5 till 17,7 procent, MMLU-Pro från 84,0 till 85,0 procent och MMLU-Redux från 92,9 till 93,4 procent. Endast OpenAI:s SimpleQA visade en liten minskning från 30,1 till 27,8 procent. Dessa omfattande förbättringar visar att DeepSeek-R1-0528 är konkurrenskraftig inte bara inom specialiserade områden utan över hela spektrumet av kognitiva uppgifter.
Teknisk arkitektur och innovationer
Den tekniska grunden för DeepSeek-R1-0528 är baserad på en sofistikerad MoE-arkitektur (Mixture of Experts) med 37 miljarder aktiva parametrar av totalt 671 miljarder parametrar och en kontextlängd på 128 000 tokens. Modellen implementerar avancerad förstärkningsinlärning för att uppnå självverifiering, flerstegsreflektion och människoliknande resonemangsförmågor. Denna arkitektur gör det möjligt för modellen att hantera komplexa resonemangsuppgifter genom iterativa tänkandeprocesser, vilket skiljer den från traditionella språkmodeller.
En särskilt innovativ aspekt är utvecklingen av en destillerad variant, DeepSeek-R1-0528-Qwen3-8B, som skapades genom att destillera tankeprocessen från DeepSeek-R1-0528 för efterträning av Qwen3-8B-Base. Denna mindre version uppnår imponerande prestanda med betydligt lägre resurskrav och körs på GPU:er med 8-12 GB VRAM. I AIME 2024-testet uppnådde modellen toppmodern prestanda bland modeller med öppen källkod, med en förbättring på 10 procent jämfört med Qwen3-8B och jämförbar prestanda med Qwen3-235B-Thinking.
Utvecklingsmetodiken visar att DeepSeek i allt högre grad förlitar sig på efterträning med förstärkningsinlärning, vilket ledde till en ökning av tokenförbrukningen med 40 % under utvärderingen – från 71 till 99 miljoner tokens. Detta tyder på att modellen genererar längre och djupare svar utan att det krävs grundläggande arkitekturförändringar.
Marknadsposition och konkurrensdynamik
DeepSeek-R1-0528 etablerar sig som en seriös konkurrent till de ledande proprietära modellerna från västerländska teknikföretag. Enligt Artificial Analysis får modellen 68 poäng, vilket placerar den i nivå med Googles Gemini 2.5 Pro och före modeller som xAI:s Grok 3 mini, Metas Llama 4 Maverick och Nvidias Nemotron Ultra. I kodkategorin når DeepSeek-R1-0528 en nivå strax under OpenAI:s o4-mini och o3.
Lanseringen av uppdateringen har haft en betydande inverkan på det globala AI-landskapet. Den första lanseringen av DeepSeek-R1 i januari 2025 ledde redan till en nedgång i teknikaktier utanför Kina och utmanade antagandet att skalning av AI kräver enorm datorkraft och investeringar. Västerländska konkurrenter reagerade snabbt: Google introducerade rabatterade åtkomstpriser för Gemini, medan OpenAI sänkte priserna och introducerade en o3 Mini-modell som kräver mindre datorkraft.
Intressant nog visar textstilsanalyser från EQBench att DeepSeek-R1:s stil är starkare influerad av Google än av OpenAI, vilket tyder på att mer syntetisk Gemini-utdata kan ha använts i dess utveckling. Denna observation understryker de komplexa influenserna och tekniköverföringarna mellan olika AI-utvecklare.
Kostnadseffektivitet och tillgänglighet
En viktig konkurrensfördel med DeepSeek-R1-0528 ligger i dess exceptionella kostnadseffektivitet. Dess prisstruktur är betydligt mer förmånlig än OpenAIs: Input-tokens kostar 0,14 dollar per miljon tokens för cacheträffar och 0,55 dollar för cachemissar, medan output-tokens kostar 2,19 dollar per miljon tokens. Som jämförelse tar OpenAI o1 15 dollar för input-tokens och 60 dollar för output-tokens per miljon, vilket gör DeepSeek-R1 90–95 procent billigare.
Microsoft Azure erbjuder även DeepSeek-R1 till konkurrenskraftiga priser: Den globala versionen kostar 0,00135 USD för indatatokens och 0,0054 USD för utdatatokens per 1 000 tokens, medan den regionala versionen har något högre priser. Denna prissättning gör modellen särskilt attraktiv för företag och utvecklare som vill utnyttja högkvalitativa AI-funktioner utan de höga kostnaderna för proprietära lösningar.
Dess tillgänglighet som en öppen källkodsmodell under MIT-licensen möjliggör också kommersiell användning och modifiering utan licensavgifter. Utvecklare kan köra modellen lokalt eller använda den via olika API:er, vilket erbjuder flexibilitet och kontroll över implementeringen. För användare med begränsade resurser finns en destillerad version med 8 miljarder parametrar tillgänglig, som körs på konsumenthårdvara med 24 GB minne.
Lämplig för detta:
Kinas AI-upphämtning: Vad DeepSeeks framgång betyder
DeepSeek-R1-0528 markerar en vändpunkt i den globala AI-utvecklingen och visar att kinesiska företag kan utveckla modeller som konkurrerar med de bästa västerländska systemen trots amerikanska exportrestriktioner. Uppdateringen bevisar att betydande prestandaförbättringar är möjliga utan grundläggande arkitekturförändringar när efterträningsoptimeringar och förstärkningsinlärning används effektivt. Kombinationen av topprestanda, drastiskt minskade kostnader och tillgänglighet med öppen källkod utmanar fundamentalt etablerade affärsmodeller inom AI-branschen.
Reaktionerna från västerländska konkurrenter på DeepSeeks framgångar visar redan initiala marknadsförändringar: prissänkningar från OpenAI och Google, samt utveckling av mer resurseffektiva modeller. Med den förväntade lanseringen av DeepSeek-R2, ursprungligen planerad till maj 2025, kan detta konkurrenstryck intensifieras ytterligare. Framgångssagan DeepSeek-R1-0528 illustrerar att innovation inom AI inte nödvändigtvis kräver massiva investeringar och datorresurser, utan kan uppnås genom smarta algoritmer och effektiva utvecklingsmetoder.
Lämplig för detta:
Din AI -omvandling, AI -integration och AI -plattformsindustrin Expert
☑ Vårt affärsspråk är engelska eller tyska
☑ Nytt: korrespondens på ditt nationella språk!
Jag är glad att vara tillgänglig för dig och mitt team som personlig konsult.
Du kan kontakta mig genom att fylla i kontaktformuläret eller helt enkelt ringa mig på +49 89 674 804 (München) . Min e -postadress är: Wolfenstein ∂ xpert.digital
Jag ser fram emot vårt gemensamma projekt.













