
DeepSeek-R1-0528: DeepSeek-opdatering bring die Chinese KI-model weer op gelyke voet met Westerse bedryfsleiers – Beeld: Xpert.Digital
Oopbron-KI op sy uiterste: DeepSeek oorskadu OpenAI en Google
Van 60 tot 68: DeepSeek katapulteer Chinese KI terug na die top
Die Chinese KI-opstartonderneming DeepSeek het 'n belangrike mylpaal bereik met die vrystelling van DeepSeek-R1-0528 op 28 Mei 2025, wat die globale KI-landskap herdefinieer. Die opdatering van die oopbron-redeneringsmodel toon dramatiese prestasieverbeterings, wat DeepSeek vir die eerste keer op gelyke voet met OpenAI se o3 en Google Gemini 2.5 Pro plaas. Dit is veral noemenswaardig dat hierdie piekprestasie teen 'n fraksie van die koste en met heeltemal oop modelgewigte bereik word, wat fundamentele vrae oor die toekoms van eie KI-stelsels laat ontstaan. Die onafhanklike graderingsplatform Artificial Analysis het die nuwe model 68 punte gegee – 'n sprong van 60 na 68 punte wat ooreenstem met die prestasieverskil tussen OpenAI o1 en o3.
Geskik vir:
Die opdatering en die tegniese verbeterings daarvan
DeepSeek-R1-0528 verteenwoordig 'n aansienlike verbetering wat beduidende prestasieverbeterings teweegbring deur algoritmiese optimalisering en verhoogde gebruik van berekeningshulpbronne in na-opleiding, sonder om die onderliggende argitektuur te verander. Die opdatering fokus hoofsaaklik op die verbetering van redenasievermoëns, wat volgens DeepSeek "aansienlik dieper denkprosesse" moontlik maak. 'n Besonder indrukwekkende voorbeeld van hierdie verbetering word gesien in die AIME 2025 wiskundetoets, waar akkuraatheid van 70 persent tot 87,5 persent toegeneem het. Terselfdertyd het die gemiddelde aantal tokens per vraag van 12 000 tot 23 000 tokens toegeneem, wat dui op meer intensiewe verwerking.
Benewens verbeterings in redenasie, stel die opdatering belangrike nuwe funksionaliteite bekend, insluitend JSON-uitvoer en funksieoproepe, 'n geoptimaliseerde gebruikerskoppelvlak en verminderde hallusinasies. Hierdie verbeterings maak die model aansienlik meer prakties vir ontwikkelaars en brei die omvang daarvan aansienlik uit. Beskikbaarheid bly onveranderd: Bestaande API-gebruikers sal die opdatering outomaties ontvang, terwyl die modelgewigte steeds beskikbaar sal wees onder die oop MIT-lisensie op Hugging Face.
Maatstafprestasie en prestasievergelykings
Die maatstafresultate vir DeepSeek-R1-0528 toon indrukwekkende verbeterings in alle evalueringskategorieë. In wiskundige take het die AIME-2024-telling van 79.8 tot 91.4 persent gestyg, HMMT-2025 van 41.7 tot 79.4 persent, en CNMO-2024 van 78.8 tot 86.9 persent. Hierdie resultate posisioneer die model as een van die kragtigste KI-stelsels vir wiskundige probleemoplossing wêreldwyd.
DeepSeek-R1-0528 toon ook beduidende vordering in programmeringsmaatstawwe. LiveCodeBench het verbeter van 63.5 tot 73.3 persent, Aider-Polyglot van 53.3 tot 71.6 persent, en SWE Verified van 49.2 tot 57.6 persent. Die Codeforces-gradering het geklim van 1 530 tot 1 930 punte, wat die model onder die top algoritmiese probleemoplossers plaas. In vergelyking met mededingende modelle behaal DeepSeek-R1 49.2 persent in SWE Verified, wat dit net voor OpenAI o1-1217 plaas met 48.9 persent, terwyl dit in Codeforces, met 96.3 persentiele en 'n Elo-gradering van 2 029 punte, baie naby aan OpenAI se toonaangewende model kom.
Algemene kennis- en logikatoetse bevestig die breë prestasieverbetering: GPQA-Diamond het toegeneem van 71.5 tot 81.0 persent, Humanity's Last Exam van 8.5 tot 17.7 persent, MMLU-Pro van 84.0 tot 85.0 persent, en MMLU-Redux van 92.9 tot 93.4 persent. Slegs OpenAI se SimpleQA het 'n effense afname van 30.1 tot 27.8 persent getoon. Hierdie omvattende verbeterings demonstreer dat DeepSeek-R1-0528 mededingend is, nie net in gespesialiseerde gebiede nie, maar oor die hele spektrum van kognitiewe take.
Tegniese argitektuur en innovasies
Die tegniese fondament van DeepSeek-R1-0528 is gebaseer op 'n gesofistikeerde MoE (Mixture of Experts) argitektuur met 37 miljard aktiewe parameters uit 'n totaal van 671 miljard parameters en 'n kontekslengte van 128 000 tokens. Die model implementeer gevorderde versterkingsleer om selfverifikasie, meerfasige refleksie en mensagtige redenasievermoëns te bereik. Hierdie argitektuur stel die model in staat om komplekse redenasietake aan te pak deur iteratiewe denkprosesse, wat dit onderskei van tradisionele taalmodelle.
'n Besonder innoverende aspek is die ontwikkeling van 'n gedistilleerde variant, DeepSeek-R1-0528-Qwen3-8B, wat geskep is deur die denkproses van DeepSeek-R1-0528 te distilleer vir Qwen3-8B-Base na opleiding. Hierdie kleiner weergawe behaal indrukwekkende werkverrigting met aansienlik laer hulpbronvereistes en loop op GPU's met 8-12 GB VRAM. In die AIME 2024-toets het die model die nuutste werkverrigting onder oopbronmodelle behaal, met 'n verbetering van 10 persent teenoor Qwen3-8B en vergelykbare werkverrigting as Qwen3-235B-Thinking.
Die ontwikkelingsmetodologie toon dat DeepSeek toenemend staatmaak op na-opleiding met versterkingsleer, wat gelei het tot 'n toename van 40% in tokenverbruik tydens die evaluering – van 71 tot 99 miljoen tokens. Dit dui daarop dat die model langer en dieper antwoorde genereer sonder dat fundamentele argitektoniese veranderinge nodig is.
Markposisie en mededingende dinamika
DeepSeek-R1-0528 vestig homself as 'n ernstige mededinger vir die toonaangewende gepatenteerde modelle van Westerse tegnologiemaatskappye. Volgens Artificial Analysis behaal die model 68 punte, wat dit gelykstaande plaas aan Google se Gemini 2.5 Pro en voor modelle soos xAI se Grok 3 mini, Meta se Llama 4 Maverick, en Nvidia se Nemotron Ultra. In die kodekategorie behaal DeepSeek-R1-0528 'n vlak net onder OpenAI se o4-mini en o3.
Die vrystelling van die opdatering het 'n beduidende impak op die globale KI-landskap gehad. Die aanvanklike vrystelling van DeepSeek-R1 in Januarie 2025 het reeds gelei tot 'n insinking in tegnologie-aandele buite China en die aanname uitgedaag dat die opskaling van KI enorme rekenaarkrag en belegging vereis. Westerse mededingers het vinnig gereageer: Google het afslagtoegangstariewe vir Gemini bekendgestel, terwyl OpenAI pryse verlaag het en 'n o3 Mini-model bekendgestel het wat minder rekenaarkrag benodig.
Interessant genoeg toon teksstylontledings van EQBench dat DeepSeek-R1 se styl sterker deur Google as deur OpenAI beïnvloed word, wat daarop dui dat meer sintetiese Gemini-uitsette moontlik in die ontwikkeling daarvan gebruik is. Hierdie waarneming beklemtoon die komplekse invloede en tegnologie-oordragte tussen verskillende KI-ontwikkelaars.
Koste-effektiwiteit en beskikbaarheid
'n Belangrike mededingende voordeel van DeepSeek-R1-0528 lê in sy uitsonderlike koste-effektiwiteit. Die prysstruktuur is aansienlik gunstiger as dié van OpenAI: Invoertokens kos $0,14 per miljoen tokens vir kas-treffers en $0,55 vir kas-mislukkings, terwyl uitvoertokens $2,19 per miljoen tokens kos. In vergelyking vra OpenAI o1 $15 vir invoertokens en $60 vir uitvoertokens per miljoen, wat DeepSeek-R1 90-95 persent goedkoper maak.
Microsoft Azure bied ook DeepSeek-R1 teen mededingende pryse aan: Die globale weergawe kos $0.00135 vir invoertokens en $0.0054 vir uitvoertokens per 1 000 tokens, terwyl die streeksweergawe effens hoër pryse het. Hierdie pryse maak die model veral aantreklik vir maatskappye en ontwikkelaars wat hoëgehalte-KI-funksionaliteite wil benut sonder die hoë koste van eie oplossings.
Die beskikbaarheid daarvan as 'n oopbronmodel onder die MIT-lisensie maak ook kommersiële gebruik en wysiging sonder lisensiegelde moontlik. Ontwikkelaars kan die model plaaslik laat loop of dit via verskeie API's gebruik, wat buigsaamheid en beheer oor die implementering bied. Vir gebruikers met beperkte hulpbronne is 'n gedistilleerde weergawe van 8 miljard parameters beskikbaar, wat op verbruikershardeware met 24 GB geheue loop.
Geskik vir:
China se KI-inhaal: Wat DeepSeek se sukses beteken
DeepSeek-R1-0528 merk 'n keerpunt in globale KI-ontwikkeling, wat demonstreer dat Chinese maatskappye modelle kan ontwikkel wat met die beste Westerse stelsels meeding ten spyte van Amerikaanse uitvoerbeperkings. Die opdatering bewys dat beduidende prestasieverbeterings moontlik is sonder fundamentele argitektoniese veranderinge wanneer na-opleidingsoptimalisering en versterkingsleer effektief aangewend word. Die kombinasie van piekprestasie, drasties verminderde koste en oopbronbeskikbaarheid daag gevestigde besigheidsmodelle in die KI-bedryf fundamenteel uit.
Die reaksies van Westerse mededingers op DeepSeek se sukses toon reeds aanvanklike markveranderinge: prysverlagings van OpenAI en Google, sowel as die ontwikkeling van meer hulpbron-doeltreffende modelle. Met die verwagte vrystelling van DeepSeek-R2, oorspronklik beplan vir Mei 2025, kan hierdie mededingende druk verder toeneem. Die suksesverhaal van DeepSeek-R1-0528 illustreer dat innovasie in KI nie noodwendig massiewe beleggings en rekenaarhulpbronne vereis nie, maar bereik kan word deur slim algoritmes en doeltreffende ontwikkelingsmetodes.
Geskik vir:
U AI -transformasie, AI -integrasie en AI -platformbedryfskenner
☑️ Ons besigheidstaal is Engels of Duits
☑️ NUUT: Korrespondensie in jou landstaal!
Ek sal graag jou en my span as 'n persoonlike adviseur dien.
Jy kan my kontak deur die kontakvorm hier in te vul of bel my eenvoudig by +49 89 89 674 804 (München) . My e-posadres is: wolfenstein ∂ xpert.digital
Ek sien uit na ons gesamentlike projek.

