Selectarea limbii 📢


DeepSeek-R1-0528: Actualizarea DeepSeek readuce modelul chinezesc de inteligență artificială la egalitate cu liderii occidentali ai industriei

Publicat la: 31 mai 2025 / Actualizat la: 31 mai 2025 – Autor: Konrad Wolfenstein

DeepSeek-R1-0528: Actualizarea DeepSeek readuce modelul chinezesc de inteligență artificială la egalitate cu liderii occidentali ai industriei

DeepSeek-R1-0528: Actualizarea DeepSeek readuce modelul chinezesc de inteligență artificială la egalitate cu liderii occidentali ai industriei – Imagine: Xpert.Digital

Inteligența artificială open-source la limită: DeepSeek eclipsează OpenAI și Google

De la 60 la 68: DeepSeek catapultează inteligența artificială chineză înapoi în vârf

Startup-ul chinez de inteligență artificială DeepSeek a atins o piatră de hotar semnificativă odată cu lansarea DeepSeek-R1-0528 pe 28 mai 2025, redefinind peisajul global al inteligenței artificiale. Actualizarea modelului de raționament open-source demonstrează îmbunătățiri dramatice ale performanței, poziționând DeepSeek pentru prima dată la egalitate cu o3 de la OpenAI și Google Gemini 2.5 Pro. Deosebit de remarcabil este faptul că această performanță maximă este atinsă la o fracțiune din cost și cu ponderi de model complet deschise, ridicând întrebări fundamentale despre viitorul sistemelor de inteligență artificială proprietare. Platforma independentă de evaluare Artificial Analysis a acordat noului model un scor de 68 de puncte - o creștere de la 60 la 68 de puncte, care corespunde diferenței de performanță dintre OpenAI o1 și o3.

Legat de asta:

Actualizarea și îmbunătățirile tehnice ale acesteia

DeepSeek-R1-0528 reprezintă o îmbunătățire substanțială care realizează îmbunătățiri semnificative ale performanței prin optimizări algoritmice și utilizarea sporită a resurselor de calcul în etapa post-antrenament, fără a altera arhitectura de bază. Actualizarea se concentrează în principal pe îmbunătățirea capacităților de raționament, permițând, potrivit DeepSeek, „procese de gândire semnificativ mai profunde”. Un exemplu deosebit de impresionant al acestei îmbunătățiri este observat în testul de matematică AIME 2025, unde acuratețea a crescut de la 70% la 87,5%. Simultan, numărul mediu de jetoane per întrebare a crescut de la 12.000 la 23.000 de jetoane, indicând o procesare mai intensivă.

Pe lângă îmbunătățirile aduse raționamentului, actualizarea introduce funcționalități noi importante, inclusiv ieșire JSON și apeluri de funcții, o interfață utilizator optimizată și halucinații reduse. Aceste îmbunătățiri fac modelul semnificativ mai practic pentru dezvoltatori și îi extind considerabil domeniul de aplicare. Disponibilitatea rămâne neschimbată: Utilizatorii API existenți vor primi actualizarea automat, în timp ce ponderile modelului vor continua să fie disponibile sub licența deschisă MIT pe Hugging Face.

Performanță de referință și comparații de performanță

Rezultatele testelor de referință pentru DeepSeek-R1-0528 arată îmbunătățiri impresionante în toate categoriile de evaluare. În sarcinile matematice, scorul AIME-2024 a crescut de la 79,8% la 91,4%, HMMT-2025 de la 41,7% la 79,4%, iar CNMO-2024 de la 78,8% la 86,9%. Aceste rezultate poziționează modelul ca fiind unul dintre cele mai puternice sisteme de inteligență artificială pentru rezolvarea problemelor matematice la nivel mondial.

DeepSeek-R1-0528 prezintă, de asemenea, progrese semnificative în testele de programare. LiveCodeBench s-a îmbunătățit de la 63,5% la 73,3%, Aider-Polyglot de la 53,3% la 71,6%, iar SWE Verified de la 49,2% la 57,6%. Ratingul Codeforces a urcat de la 1.530 la 1.930 de puncte, plasând modelul printre cei mai buni soluționeri algoritmici de rezolvare a problemelor. Comparativ cu modelele concurente, DeepSeek-R1 obține 49,2% în SWE Verified, plasându-se chiar înaintea OpenAI o1-1217 cu 48,9%, în timp ce în Codeforces, cu 96,3 percentile și un rating Elo de 2.029 de puncte, se apropie foarte mult de modelul principal al OpenAI.

Testele de cunoștințe generale și de logică confirmă îmbunătățirea generală a performanței: GPQA-Diamond a crescut de la 71,5% la 81,0%, Humanity's Last Exam de la 8,5% la 17,7%, MMLU-Pro de la 84,0% la 85,0%, iar MMLU-Redux de la 92,9% la 93,4%. Doar SimpleQA de la OpenAI a înregistrat o ușoară scădere, de la 30,1% la 27,8%. Aceste îmbunătățiri cuprinzătoare demonstrează că DeepSeek-R1-0528 este competitiv nu doar în domenii specializate, ci pe întreg spectrul de sarcini cognitive.

Arhitectură tehnică și inovații

Fundația tehnică a DeepSeek-R1-0528 se bazează pe o arhitectură sofisticată MoE (Mixture of Experts - Amestec de Experți) cu 37 de miliarde de parametri activi dintr-un total de 671 de miliarde de parametri și o lungime a contextului de 128.000 de token-uri. Modelul implementează învățarea avansată prin consolidare pentru a realiza autoverificare, reflecție în mai multe etape și capacități de raționament similare celor umane. Această arhitectură permite modelului să abordeze sarcini complexe de raționament prin procese iterative de gândire, ceea ce îl distinge de modelele de limbaj tradiționale.

Un aspect deosebit de inovator este dezvoltarea unei variante distilate, DeepSeek-R1-0528-Qwen3-8B, care a fost creată prin distilarea procesului de gândire al DeepSeek-R1-0528 pentru Qwen3-8B-Base post-antrenament. Această versiune mai mică atinge performanțe impresionante cu cerințe de resurse semnificativ mai mici și rulează pe GPU-uri cu 8-12 GB de VRAM. În testul AIME 2024, modelul a atins performanțe de ultimă generație printre modelele open-source, cu o îmbunătățire de 10% față de Qwen3-8B și performanțe comparabile cu Qwen3-235B-Thinking.

Metodologia de dezvoltare arată că DeepSeek se bazează din ce în ce mai mult pe post-antrenament cu învățare prin consolidare, ceea ce a dus la o creștere cu 40% a consumului de tokenuri în timpul evaluării - de la 71 la 99 de milioane de tokenuri. Acest lucru sugerează că modelul generează răspunsuri mai lungi și mai detaliate fără a necesita modificări arhitecturale fundamentale.

Poziția pe piață și dinamica concurențială

DeepSeek-R1-0528 se impune ca un concurent serios pentru modelele proprietare de top ale companiilor de tehnologie occidentale. Conform Artificial Analysis, modelul obține 68 de puncte, plasându-l la egalitate cu Gemini 2.5 Pro de la Google și depășind modele precum Grok 3 mini de la xAI, Llama 4 Maverick de la Meta și Nemotron Ultra de la Nvidia. În categoria codului, DeepSeek-R1-0528 atinge un nivel chiar sub o4-mini și o3 de la OpenAI.

Lansarea actualizării a avut un impact semnificativ asupra peisajului global al inteligenței artificiale. Lansarea inițială a DeepSeek-R1 în ianuarie 2025 a dus deja la o scădere a prețurilor acțiunilor companiilor tehnologice din afara Chinei și a contestat presupunerea că scalarea inteligenței artificiale necesită o putere de calcul și investiții enorme. Concurenții occidentali au reacționat rapid: Google a introdus tarife de acces reduse pentru Gemini, în timp ce OpenAI a redus prețurile și a introdus un model o3 Mini care necesită o putere de calcul mai mică.

Interesant este că analizele stilului textual realizate de EQBench arată că stilul DeepSeek-R1 este mai puternic influențat de Google decât de OpenAI, ceea ce sugerează că în dezvoltarea sa s-ar fi putut folosi rezultate Gemini mai sintetice. Această observație subliniază influențele complexe și transferurile de tehnologie dintre diferiți dezvoltatori de inteligență artificială.

Eficiență a costurilor și disponibilitate

Un avantaj competitiv cheie al DeepSeek-R1-0528 constă în eficiența excepțională a costurilor. Structura sa de prețuri este semnificativ mai favorabilă decât cea a OpenAI: token-urile de intrare costă 0,14 USD pe milion de token-uri pentru accesări în cache și 0,55 USD pentru erori în cache, în timp ce token-urile de ieșire costă 2,19 USD pe milion de token-uri. Prin comparație, OpenAI o1 percepe 15 USD pentru token-uri de intrare și 60 USD pentru token-uri de ieșire pe milion, ceea ce face ca DeepSeek-R1 să fie cu 90-95% mai ieftin.

Microsoft Azure oferă și DeepSeek-R1 la prețuri competitive: versiunea globală costă 0,00135 USD pentru token-urile de intrare și 0,0054 USD pentru token-urile de ieșire la 1.000 de token-uri, în timp ce versiunea regională are prețuri puțin mai mari. Acest preț face ca modelul să fie deosebit de atractiv pentru companiile și dezvoltatorii care doresc să utilizeze funcționalități de inteligență artificială de înaltă calitate, fără costurile ridicate ale soluțiilor proprietare.

Disponibilitatea sa ca model open-source sub licența MIT permite, de asemenea, utilizarea comercială și modificarea fără taxe de licență. Dezvoltatorii pot rula modelul local sau îl pot utiliza prin diverse API-uri, oferind flexibilitate și control asupra implementării. Pentru utilizatorii cu resurse limitate, este disponibilă o versiune distilată cu 8 miliarde de parametri, care rulează pe hardware de consum cu 24 GB de memorie.

Legat de asta:

Recuperarea decalajului dintre inteligența artificială a Chinei: Ce înseamnă succesul DeepSeek

DeepSeek-R1-0528 marchează un punct de cotitură în dezvoltarea IA la nivel global, demonstrând că firmele chineze pot dezvolta modele care concurează cu cele mai bune sisteme occidentale, în ciuda restricțiilor de export impuse de SUA. Actualizarea dovedește că îmbunătățiri semnificative ale performanței sunt posibile fără modificări arhitecturale fundamentale atunci când optimizările post-antrenament și învățarea prin consolidare sunt utilizate eficient. Combinația dintre performanța maximă, costurile reduse drastic și disponibilitatea open-source pune la îndoială modelele de afaceri consacrate din industria IA.

Reacțiile concurenților occidentali la succesul DeepSeek arată deja schimbări inițiale pe piață: reduceri de prețuri din partea OpenAI și Google, precum și dezvoltarea unor modele mai eficiente din punct de vedere al resurselor. Odată cu lansarea anticipată a DeepSeek-R2, planificată inițial pentru mai 2025, această presiune concurențială s-ar putea intensifica și mai mult. Povestea de succes a DeepSeek-R1-0528 ilustrează faptul că inovația în domeniul inteligenței artificiale nu necesită neapărat investiții masive și resurse de calcul, ci poate fi realizată prin algoritmi ingenioși și metode de dezvoltare eficiente.

Legat de asta:

 

Expertul tău în transformarea, integrarea și platformele IA

☑️ Limba noastră de afaceri este engleza sau germana

☑️ NOU: Corespondență în limba ta maternă!

 

Pionier digital - Konrad Wolfenstein

Konrad Wolfenstein

Eu și echipa mea suntem bucuroși să vă fim la dispoziție în calitate de consilier personal.

Mă puteți contacta completând formularul de contact de aici sau pur și simplu sunându-mă la +49 89 89 674 804 ( München) . Adresa mea de e-mail este: wolfenstein@xpert.digital

Aștept cu nerăbdare proiectul nostru comun.

 

 

☑️ Suport pentru IMM-uri în strategie, consultanță, planificare și implementare

☑️ Crearea sau realinierea strategiei de inteligență artificială

☑️ Dezvoltare de afaceri pionieră


⭐️ Inteligență Artificială (IA) - Blog, Hotspot și Hub de Conținut despre IA ⭐️ Blog NSEO pentru GEO (Optimizare Generativă pentru Motoare) și Căutare în Inteligență Artificială AIS ⭐️ China ⭐️ XPaper