Taalkeuse 📢


Deepseek-R1-0528: Deepseek-opdatering bring Chinese AI-model terug op ooghoogte met die Westerse bedryfsleiers

Gepubliseer op: 31 Mei 2025 / Update van: 31 Mei 2025 - Skrywer: Konrad Wolfenstein

Deepseek-R1-0528: Deepseek-opdatering bring Chinese AI-model terug op ooghoogte met die Westerse bedryfsleiers

Deepseek-R1-0528: Deepseek-opdatering bring Chinese AI-model terug op ooghoogte met die Westerse bedryfsleiers-beeld: Xpert.digital

Open Source AI op die perk: Deepseek voer OpenAI en Google in die skaduwee uit

Van 60 tot 68: Deepseek het Chinese AI teruggekap na bo

Met die publikasie van Deepseek-R1-0528 op 28 Mei 2025 het die Chinese Ki Startup Deepseek 'n belangrike mylpaal behaal wat die wêreldwye AI-landskap herdefinieer het. Die opdatering van die open source -lesermodel toon dramatiese prestasieverhogings en posisioneer vir die eerste keer Deepseek op dieselfde vlak as Openais O3 en Google Gemini 2.5 Pro. Dit is veral opmerklik dat hierdie topprestasie bereik word met 'n fraksie van die koste en met heeltemal oop modelgewigte, wat fundamentele vrae ontstaan ​​oor die toekoms van eie AI -stelsels. Die Independent Rating Platform Artificial Analysis klassifiseer die nuwe model met 68 punte - 'n sprong van 60 tot 68 punte stem ooreen met die prestasieverskil tussen Openaiai O1 en O3.

Geskik vir:

Die opdatering en die tegniese verbeterings daarvan

DeepSeek-R1-0528 verteenwoordig 'n aansienlike verdere ontwikkeling, wat geen veranderinge aan die basiese argitektuur benodig nie, maar aansienlike toenames in na-opleiding deur algoritmiese optimalisering en verhoogde gebruik van rekenkundige hulpbronne bewerkstellig. Die opdatering fokus hoofsaaklik op die verbetering van die redenasievaardighede en stel volgens Deepseek 'aansienlik dieper denkprosesse' moontlik. 'N Besondere indrukwekkende voorbeeld van hierdie verbetering toon in die AIME 2025 -wiskundetoets, waar die akkuraatheid van 70 persent tot 87,5 persent gestyg het. Terselfdertyd het die gemiddelde aantal tekens per vraag van 12.000 tot 23.000 tekens toegeneem, wat meer intensiewe verwerkingsprosesse aandui.

Benewens die verbetering van die redenasie, stel die opdatering belangrike nuwe funksies bekend, insluitend JSON -uitset en funksionele aansigte, 'n geoptimaliseerde gebruikerskoppelvlak en verminderde hallusinasies. Hierdie innovasies maak die model baie meer prakties vir ontwikkelaars en brei die omvang daarvan aansienlik uit. Die beskikbaarheid bly onveranderd: bestaande API-gebruikers ontvang outomaties die opdatering, terwyl die modelgewigte steeds beskikbaar is onder die oop mede-lisensie op die omhelsing van die gesig.

Maatstafprestasie en prestasievergelyking

Die maatstafresultate van Deepseek-R1-0528 toon indrukwekkende verbeterings in alle evalueringskategorieë. In wiskundige take het die AIME 2024 -waarde van 79,8 tot 91,4 persent gestyg, HMMT 2025 van 41,7 tot 79,4 persent en CNMO 2024 van 78,8 tot 86,9 persent. Hierdie resultate plaas die model as een van die kragtigste AI -stelsels vir wiskundige probleemoplossings wêreldwyd.

Met programmeringsmaatstawwe toon Deepseek-R1-0528 ook beduidende vordering. Livecodebech het van 63,5 tot 73,3 persent verbeter, Aider -veelhoek van 53,3 tot 71,6 persent en SWE het van 49,2 tot 57,6 persent geverifieer. Die Codeforces -gradering het van 1,530 tot 1,930 punte geklim, wat die model in die topgroep algoritmiese probleemoplossers klassifiseer. In vergelyking met mededingende modelle, bereik DeepSeek-R1 49,2 persent by SWE-geverifieerde en is dit dus net voor Openaiai O1-1217 met 48,9 persent, terwyl codeforces met 96,3 persentasies en 'n ELO-gradering van 2029 punte baie naby aan Openais is.

Algemene kennis en logiese toetse bevestig die breë toename in prestasie: GPQA-diamond het gestyg van 71,5 tot 81,0 persent, die laaste eksamen van die mensdom van 8,5 tot 17,7 persent, MMLU-pro van 84,0 tot 85,0 persent en MMLU-REDUX van 92,9 tot 93,4 persent. Slegs met Openais Simpleqa was 'n effense daling van 30,1 tot 27,8 persent. Hierdie omvattende verbeterings dokumenteer dat Deepseek-R1-0528 nie net mededingend is in gespesialiseerde gebiede nie, maar oor die hele spektrum van kognitiewe take.

Tegniese argitektuur en innovasies

Die tegniese basis van Deepseek-R1-0528 is gebaseer op 'n hoogs ontwikkelde MOE (mengsel van kundiges) argitektuur met 37 miljard aktiewe parameters van 'n totaal van 671 miljard parameters en 'n kontekslengte van 128.000 tekens. Die model implementeer gevorderde suiweringsleer om selfkontrole, weerspieëling van 'n multi -fase te bereik en die vermoë om te argumenteer wat aangepas is vir mense. Hierdie argitektuur stel die model in staat om ingewikkelde redeneringstake te bestuur deur iteratiewe denkprosesse, wat onderskei tussen tradisionele stemmodelle.

'N Besondere innoverende aspek is die ontwikkeling van 'n gedistilleerde variant, Deepseek-R1-0528-Qwen3-8b, wat geskep is deur die gedagtes van Deepseek-R1-0528 te distilleer vir die na-opleiding van Qwen3-8b-basis. Hierdie kleiner weergawe lewer indrukwekkende dienste met aansienlik laer hulpbronvereistes en kan op GPU's met 8-12 GB VRAM uitgevoer word. Die model het die nuutste prestasie in die AIME 2024-toets onder open source-modelle behaal met 'n verbetering van 10 persent in vergelyking met QWEN3-8B ​​en vergelykbare prestasie soos QWEN3-235B-denke.

Die ontwikkelingsmetodologie toon dat Deepseek toenemend afhanklik is van na-opleiding met versterkingsleer, wat gelei het tot 'n toename van 40 persent in die tokenverbruik in evaluering-van 71 tot 99 miljoen tekens. Dit dui daarop dat die model langer en dieper antwoorde genereer sonder fundamentele argitektoniese veranderinge.

Markposisie en mededingende dinamika

Deepseek-R1-0528 vestig homself as 'n ernstige deelnemer aan die toonaangewende eie modelle van Westerse tegnologiemaatskappye. Volgens kunsmatige analise is die model met 68 punte op dieselfde vlak as Google se Gemini 2.5 Pro en voor modelle soos Xais Grok 3 Mini, Metas llama 4 Maverick en Nvidias Nemotron Ultra. In die kodekategorie bereik Deepseek-R1-0528 'n vlak net onder O4-mini en O3.

Die publikasie van die opdatering het 'n beduidende invloed op die wêreldwye AI -landskap gehad. Die oorspronklike publikasie van Deepseek-R1 in Januarie 2025 het reeds gelei tot 'n inbraak van tegnologie-aandele buite China en bevraagteken die aanname dat die afskaling van AI enorme rekenaarkrag en beleggings benodig. Die reaksie van die Westerse mededingers was vinnig: Google het afslagtariewe vir Tweeling vir Tweeling bekendgestel, terwyl Openai pryse verlaag het en 'n O3 -mini -model bekendgestel het wat minder rekenaarkrag nodig het.

Interessant genoeg toon die teksstylontledings uit EqBench dat Deepseek-R1 meer op Google gerig is as op OpenAI, wat daarop dui dat meer sintetiese Tweeling-uitsette in die ontwikkeling gebruik is. Hierdie waarneming onderstreep die ingewikkelde invloede en tegnologie -oordrag tussen die verskillende AI -ontwikkelaars.

Kostedoeltreffendheid en beskikbaarheid

'N Besliste mededingende voordeel van Deepseek-R1-0528 is die buitengewone kostedoeltreffendheid daarvan. Die prysstruktuur is aansienlik goedkoper as dié van OpenAI: insettekens kos $ 0,14 per miljoen tokens vir kas -treffers en $ 0,55 by cache -mis, terwyl die uitsettekens $ 2,19 per miljoen tokens kos. In vergelyking, benodig OpenAI O1 $ 15 vir insette-tekens en $ 60 vir uitsettekens per miljoen, wat Deepseek-R1 meer as 90-95 persent goedkoper maak.

Microsoft Azure bied ook DeepSeek-R1 met mededingende pryse aan: die wêreldwye weergawe kos $ 0,00135 vir insette-tokens en $ 0,0054 vir uitset-tekens per 1 000 tekens, terwyl die streeksweergawe effens hoër pryse het. Hierdie pryse maak die model veral aantreklik vir ondernemings en ontwikkelaars wat AI-funksies van hoë gehalte wil gebruik sonder die hoë koste van eie oplossings.

Die beskikbaarheid as 'n open source-model onder mede-lisensie stel ook kommersiële gebruik en wysiging sonder lisensiegeld moontlik. Ontwikkelaars kan die model plaaslik bedryf of verskillende API's gebruik, wat buigsaamheid en beheer oor die implementering bied. Vir gebruikers met beperkte hulpbronne is die gedistilleerde weergawe van 8 miljard parameter beskikbaar, wat op verbruikershardeware met 24 GB geheue werk.

Geskik vir:

China se AI inhaal: wat die sukses van Deepseek beteken

Deepseek-R1-0528 is 'n keerpunt in die wêreldwye AI-ontwikkeling en demonstreer dat Chinese ondernemings modelle kan ontwikkel ondanks Amerikaanse uitvoerbeperkings wat met die beste Westerse stelsels meeding. Die opdatering bewys dat beduidende prestasie toeneem sonder fundamentele argitektoniese veranderinge moontlik is as die optimalisering van na-opleiding en herforstasie-leer effektief gebruik word. Die kombinasie van topprestasie, drasties verlaagde koste en open source beskikbaarheidsvrae het sakemodelle in die AI -industrie gevestig.

Die reaksies van Westerse mededingers op Deepseek se sukses toon reeds die eerste veranderinge in die mark: prysverlagings by OpenAI en Google, asook die ontwikkeling van hulpbron -reddingsmodelle. Met die verwagte publikasie van Deepseek-R2, wat oorspronklik vir 2025 in Mei beplan is, kan hierdie mededingende druk verder versterk. Die suksesverhaal van Deepseek-R1-0528 toon dat innovasie in die AI nie noodwendig groot beleggings en rekenkundige hulpbronne benodig nie, maar deur slim algoritmes en doeltreffende ontwikkelingsmetodes bereik kan word.

Geskik vir:

 

U AI -transformasie, AI -integrasie en AI -platformbedryfskenner

☑️ Ons besigheidstaal is Engels of Duits

☑️ NUUT: Korrespondensie in jou landstaal!

 

Digital Pioneer - Konrad Wolfenstein

Konrad Wolfenstein

Ek sal graag jou en my span as 'n persoonlike adviseur dien.

Jy kan my kontak deur die kontakvorm hier in te vul of bel my eenvoudig by +49 89 89 674 804 (München) . My e-posadres is: wolfenstein xpert.digital

Ek sien uit na ons gesamentlike projek.

 

 

☑️ KMO-ondersteuning in strategie, konsultasie, beplanning en implementering

☑️ Die skepping of herbelyning van die AI -strategie

☑️ Pionier Besigheidsontwikkeling


⭐️ Kunsmatige intelligensie (KI) -AI-blog, hotspot en inhoudsentrum ⭐️ AIS Kunsmatige intelligensie-soektog / kis-ki-soek / neo SEO = NSEO (volgende generasie-soekenjinoptimalisering) ⭐️ China ⭐️ Xpaper