Spraakselectie 📢


Deepseek-R1-0528: Deepseek Update brengt het Chinese AI-model terug op ooghoogte met westerse industriële leiders

Gepubliceerd op: 31 mei 2025 / Update van: 31 mei 2025 - Auteur: Konrad Wolfenstein

Deepseek-R1-0528: Deepseek Update brengt het Chinese AI-model terug op ooghoogte met westerse industriële leiders

Deepseek-R1-0528: Deepseek-update brengt het Chinese AI-model terug op oogniveau met leiders van de westerse industrie-afbeelding: Xpert.Digital

Open source AI aan de limiet: Deepseek voert OpenAi en Google in de schaduw uit

Van 60 tot 68: Deepseek katapulteerde Chinese AI terug naar de top

Met de publicatie van Deepseek-R1-0528 op 28 mei 2025 heeft de Chinese Ki Startup Deepseek een belangrijke mijlpaal behaald die het wereldwijde AI-landschap opnieuw heeft gedefinieerd. De update van het open source -lezingsmodel toont dramatische prestatieverhogingen en positioneert voor het eerst deper op hetzelfde niveau als Openais O3 en Google Gemini 2.5 Pro. Het is vooral opmerkelijk dat deze topprestaties worden bereikt met een fractie van de kosten en met volledig open modelgewichten, wat fundamentele vragen oproept over de toekomst van eigen AI -systemen. Het kunstmatige analyse van het onafhankelijke beoordelingsplatform classificeert het nieuwe model met 68 punten - een sprong van 60 tot 68 punten komt overeen met het prestatieverschil tussen OpenAai O1 en O3.

Geschikt hiervoor:

De update en de technische verbeteringen

DeepSeek-R1-0528 vertegenwoordigt een substantiële verdere ontwikkeling, die geen wijzigingen in de basisarchitectuur vereist, maar een aanzienlijke toename van de post-training bereikt door algoritmische optimalisaties en een verhoogd gebruik van rekenkundige middelen. De update richt zich voornamelijk op het verbeteren van de redeneervaardigheden en maakt "volgens Deepseek" aanzienlijk diepere denkprocessen "mogelijk. Een bijzonder indrukwekkend voorbeeld van deze verbetering toont in de Aime 2025 Mathematics -test, waarbij de nauwkeurigheid steeg van 70 procent naar 87,5 procent. Tegelijkertijd nam het gemiddelde aantal tokens per vraag toe van 12.000 tot 23.000 tokens, wat duidt op meer intensieve verwerkingsprocessen.

Naast de redeneringsverbeteringen introduceert de update belangrijke nieuwe functionaliteiten, waaronder JSON -uitvoer en functionele weergaven, een geoptimaliseerde gebruikersinterface en verminderde hallucinaties. Deze innovaties maken het model veel praktischer voor ontwikkelaars en breiden de reikwijdte ervan aanzienlijk uit. De beschikbaarheid blijft ongewijzigd: bestaande API-gebruikers ontvangen automatisch de update, terwijl de modelgewichten nog steeds beschikbaar zijn onder de open co-licentie op knuffelgezicht.

Benchmarkprestaties en prestatievergelijkingen

De benchmarkresultaten van Deepseek-R1-0528 tonen indrukwekkende verbeteringen in alle evaluatiecategorieën. In wiskundige taken steeg de AIME 2024 -waarde van 79,8 tot 91,4 procent, HMMT 2025 van 41,7 tot 79,4 procent en CNMO 2024 van 78,8 tot 86,9 procent. Deze resultaten positioneren het model als een van de krachtigste AI -systemen voor wiskundige probleemoplossingen wereldwijd.

Met programmeerbenchmarks toont Deepseek-R1-0528 ook aanzienlijke vooruitgang. LiveCodeBech verbeterde van 63,5 tot 73,3 procent, Aider Polyglot van 53,3 tot 71,6 procent en SWE geverifieerd van 49,2 tot 57,6 procent. De CodeForces -rating klom van 1.530 naar 1.930 punten, die het model classificeert in de topgroep van algoritmische probleemoplossers. In vergelijking met concurrerende modellen bereikt Deepseek-R1 49,2 procent op SWE geverifieerd en loopt hij daarom net voor OpenAai O1-1217 met 48,9 procent, terwijl codeforces met 96,3 procentuele en een ELO-rating van 2029 punten zeer dichtbij Openais zijn.

Algemene kennis en logische tests bevestigen de brede toename van de prestaties: GPQA-Diamond steeg van 71,5 tot 81,0 procent, het laatste examen van de mensheid van 8,5 tot 17,7 procent, MMLU-Pro van 84,0 tot 85,0 procent en MMLU-Redux van 92,9 tot 93,4 procent. Alleen met Openais simpleqa was een lichte daling van 30,1 tot 27,8 procent. Deze uitgebreide verbeteringen documenteren dat Deepseek-R1-0528 niet alleen concurrerend is in gespecialiseerde gebieden, maar in het hele spectrum van cognitieve taken.

Technische architectuur en innovaties

De technische basis van Deepseek-R1-0528 is gebaseerd op een sterk ontwikkelde MOE-architectuur (mix van experts) met 37 miljard actieve parameters van in totaal 671 miljard parameters en een contextlengte van 128.000 tokens. Het model implementeert geavanceerde purforcement leren om zelfcontrole, multi -stage reflectie te bereiken en het vermogen om te beweren dat is afgestemd op mensen. Deze architectuur stelt het model in staat om complexe redeneringstaken te beheren via iteratieve denkprocessen, die onderscheid maken tussen traditionele spraakmodellen.

Een bijzonder innovatief aspect is de ontwikkeling van een gedistilleerde variant, Deepseek-R1-0528-QWen3-8b, die werd gecreëerd door de gedachten van Deepseek-R1-0528 te destilleren voor de post-training van QWen3-8b-basis. Deze kleinere versie bereikt indrukwekkende services met aanzienlijk lagere hulpbronnenvereisten en kan worden uitgevoerd op GPU's met 8-12 GB VRAM. Het model behaalde de state-of-the-art prestaties in de AIME 2024-test onder open source-modellen met een verbetering van 10 procent in vergelijking met QWEN3-8B ​​en vergelijkbare prestaties zoals QWEN3-235B-denken.

De ontwikkelingsmethode toont aan dat Deepseek steeds meer afhankelijk is van post-training met versterkingsleren, wat leidde tot een toename van 40 procent in tokenconsumptie in evaluatie van 71 tot 99 miljoen tokens. Dit geeft aan dat het model langere en diepere antwoorden genereert zonder fundamentele architecturale veranderingen.

Marktpositie en concurrerende dynamiek

Deepseek-R1-0528 vestigt zich als een serieuze concurrent van de toonaangevende eigen modellen van westerse technologiebedrijven. Volgens kunstmatige analyse ligt het model met 68 punten op hetzelfde niveau als Google's Gemini 2.5 Pro en voor modellen zoals Xais Grok 3 Mini, Metas Lama 4 Maverick en Nvidias Nemotron Ultra. In de codecategorie bereikt Deepseek-R1-0528 een niveau net onder O4-Mini en O3.

De publicatie van de update heeft een aanzienlijke impact gehad op het wereldwijde AI -landschap. De oorspronkelijke publicatie van Deepseek-R1 in januari 2025 leidde al tot een inbraak van technologische aandelen buiten China en betwijfelde de veronderstelling dat de schaling van AI enorme rekenkracht en investeringen vereiste. Het antwoord van de westerse concurrenten was snel: Google introduceerde toegangstarieven voor korting voor Gemini, terwijl OpenAI de prijzen verlaagde en een O3 -mini -model introduceerde dat minder rekenkracht nodig had.

Interessant is dat tekststijlanalyses van Eqbench aantonen dat Deepseek-R1 meer gericht is op Google dan op OpenAai, wat aangeeft dat meer synthetische Gemini-outputs mogelijk zijn gebruikt in de ontwikkeling. Deze observatie onderstreept de complexe invloeden en technologieoverdracht tussen de verschillende AI -ontwikkelaars.

Kostenefficiëntie en beschikbaarheid

Een beslissend concurrentievoordeel van Deepseek-R1-0528 is de buitengewone kostenefficiëntie. De prijsstructuur is aanzienlijk goedkoper dan die van OpenAI: input tokens kosten $ 0,14 per miljoen tokens voor cachehits en $ 0,55 bij cachemissers, terwijl output tokens $ 2,19 per miljoen tokens kosten. Ter vergelijking: OpenAI O1 vereist $ 15 voor input tokens en $ 60 voor output tokens per miljoen, waardoor deepseek-R1 meer dan 90-95 procent goedkoper wordt.

Microsoft Azure biedt ook Deepseek-R1 met concurrerende prijzen: de wereldwijde versie kost $ 0,00135 voor input tokens en $ 0,0054 voor output tokens per 1.000 tokens, terwijl de regionale versie iets hogere prijzen heeft. Deze prijs maakt het model bijzonder aantrekkelijk voor bedrijven en ontwikkelaars die AI-functionaliteiten van hoge kwaliteit willen gebruiken zonder de hoge kosten van eigen oplossingen.

De beschikbaarheid als een open source-model onder co-licentie maakt ook commercieel gebruik en aanpassing mogelijk zonder licentiekosten. Ontwikkelaars kunnen het model lokaal bedienen of verschillende API's gebruiken, die flexibiliteit en controle over de implementatie biedt. Voor gebruikers met beperkte bronnen is de gedistilleerde 8 miljard parameterversie beschikbaar, die wordt uitgevoerd op consumentenhardware met een geheugen van 24 GB.

Geschikt hiervoor:

China's AI inhalen: wat het succes van Deepseek betekent

Deepseek-R1-0528 markeert een keerpunt in de wereldwijde AI-ontwikkeling en toont aan dat Chinese bedrijven modellen kunnen ontwikkelen, ondanks de exportbeperkingen van de VS die concurreren met de beste westerse systemen. De update bewijst dat significante prestaties toenemen zonder fundamentele architecturale veranderingen mogelijk zijn als optimalisaties na de training en het leren van herhaling effectief worden gebruikt. De combinatie van topprestaties, drastisch verlaagde kosten en open source beschikbaarheidsvragen vastgesteld bedrijfsmodellen in de AI -industrie.

De reacties van westerse concurrenten op het succes van Deepseek tonen al de eerste marktveranderingen: prijsverlagingen bij OpenAai en Google, evenals de ontwikkeling van modellen voor het redden van hulpbronnen. Met de verwachte publicatie van Deepseek-R2, die oorspronkelijk was gepland voor mei 2025, zou deze concurrentiedruk verder kunnen toenemen. Het succesverhaal van Deepseek-R1-0528 laat zien dat innovatie in de AI niet noodzakelijkerwijs enorme investeringen en rekenkundige bronnen vereist, maar kan worden bereikt door slimme algoritmen en efficiënte ontwikkelingsmethoden.

Geschikt hiervoor:

 

Uw AI -transformatie, AI -integratie en AI Platform Industry Expert

☑️ onze zakelijke taal is Engels of Duits

☑️ Nieuw: correspondentie in uw nationale taal!

 

Digital Pioneer - Konrad Wolfenstein

Konrad Wolfenstein

Ik ben blij dat ik beschikbaar ben voor jou en mijn team als een persoonlijk consultant.

U kunt contact met mij opnemen door het contactformulier hier in te vullen of u gewoon te bellen op +49 89 674 804 (München) . Mijn e -mailadres is: Wolfenstein Xpert.Digital

Ik kijk uit naar ons gezamenlijke project.

 

 

☑️ MKB -ondersteuning in strategie, advies, planning en implementatie

☑️ Creatie of herschikking van de AI -strategie

☑️ Pioneer Business Development


⭐️ Artificial Intelligence (KI) -AI Blog, hotspot en content hub ⭐️ AIS kunstmatige intelligentie zoeken / kis-ki-search / neo seo = nseo (next-gen zoekmachineoptimalisatie) ⭐️ China ⭐️ Xpaper