Selezione vocale 📢


DeepSeek-R1-0528: DeepSeek Update riporta il modello di AI cinese a livello degli occhi con i leader dell'industria occidentale

Pubblicato il 31 maggio 2025 / Aggiornamento dal 31 maggio 2025 - Autore: Konrad Wolfenstein

DeepSeek-R1-0528: DeepSeek Update riporta il modello di AI cinese a livello degli occhi con i leader dell'industria occidentale

DeepSeek-R1-0528: DeepSeek Update riporta il modello AI cinese a livello degli occhi con i leader dell'industria occidentale: Xpert.Digital

Ai open source al limite: DeepSeek esegue Openi e Google all'ombra

Da 60 a 68: Deepseek ha catapultato l'intelligenza artificiale cinese in cima

Con la pubblicazione di DeepSeek-R1-0528 il 28 maggio 2025, la startup cinese Ki Deepseek ha raggiunto un'importante pietra miliare che ha ridefinito il paesaggio globale dell'intelligenza artificiale. L'aggiornamento del modello di lettura open source mostra aumenti drammatici delle prestazioni e per la prima volta posizioni DeepSeek allo stesso livello di OpenAis O3 e Google Gemini 2.5 Pro. È particolarmente degno di nota il fatto che questa massima prestazione sia raggiunta con una frazione dei costi e con pesi del modello completamente aperti, il che solleva domande fondamentali sul futuro dei sistemi di intelligenza artificiale proprietari. L'analisi artificiale della piattaforma di valutazione indipendente classifica il nuovo modello con 68 punti: un salto da 60 a 68 punti corrisponde alla differenza di prestazione tra OpenAai O1 e O3.

Adatto a:

L'aggiornamento e i suoi miglioramenti tecnici

DeepSeek-R1-0528 rappresenta un ulteriore sviluppo sostanziale, che non richiede alcuna modifica all'architettura di base, ma ottiene aumenti significativi del post-formazione attraverso ottimizzazioni algoritmiche e un maggiore uso delle risorse aritmetiche. L'aggiornamento si concentra principalmente sul miglioramento delle capacità di ragionamento e, secondo DeepSeek, consente "processi di pensiero significativamente più profondi". Un esempio particolarmente impressionante di questo miglioramento mostra nel test matematico AIME 2025, in cui l'accuratezza è passata dal 70 percento all'87,5 per cento. Allo stesso tempo, il numero medio di token per domanda è aumentato da 12.000 a 23.000 token, il che indica processi di elaborazione più intensivi.

Oltre ai miglioramenti del ragionamento, l'aggiornamento introduce importanti nuove funzionalità, tra cui l'output JSON e le viste funzionali, un'interfaccia utente ottimizzata e le allucinazioni ridotte. Queste innovazioni rendono il modello molto più pratico per gli sviluppatori e ampliano significativamente il suo ambito. La disponibilità rimane invariata: gli utenti API esistenti ricevono automaticamente l'aggiornamento, mentre i pesi del modello sono ancora disponibili sotto la co-licenza aperta su un volto abbracciato.

Confronti di prestazioni di riferimento e prestazioni

I risultati di riferimento di DeepSeek-R1-0528 mostrano impressionanti miglioramenti in tutte le categorie di valutazione. In compiti matematici, il valore AIME 2024 è salito dal 79,8 al 91,4 per cento, HMMT 2025 dal 41,7 al 79,4 per cento e CNMO 2024 dal 78,8 all'86,9 per cento. Questi risultati posizionano il modello come uno dei più potenti sistemi di intelligenza artificiale per le soluzioni di problemi matematici in tutto il mondo.

Con i benchmark di programmazione, DeepSeek-R1-0528 mostra anche progressi significativi. Livecodebech è migliorato dal 63,5 al 73,3 per cento, Aider Polyglot dal 53,3 al 71,6 per cento e SWE ha verificato dal 49,2 al 57,6 per cento. La valutazione della codeformans è salita da 1.530 a 1.930 punti, che classifica il modello nel gruppo superiore di risolutori di problemi algoritmici. Rispetto ai modelli in competizione, DeepSeek-R1 raggiunge il 49,2 per cento a SWE verificato ed è quindi appena più avanti di OpenAai O1-1217 con il 48,9 per cento, mentre le forze di code con 96,3 percentuali e una valutazione ELO di 2029 punti sono molto vicine a OpenAis.

Le conoscenze generali e i test logici confermano l'ampio aumento delle prestazioni: GPQA-Diamond è salito dal 71,5 all'81,0 per cento, l'ultimo esame dell'umanità dall'8,5 al 17,7 per cento, MMLU-Pro dall'84,0 all'85,0 per cento e MMLU-REDUX dal 92,9 al 93,4 per cento. Solo con OpenAis Simpleqa è stato un leggero calo dal 30,1 al 27,8 per cento. Questi miglioramenti completi documentano che DeepSeek-R1-0528 non è solo competitivo in aree specializzate, ma in tutto lo spettro di compiti cognitivi.

Architettura tecnica e innovazioni

La base tecnica di DeepSeek-R1-0528 si basa su un'architettura MOE (miscela di esperti) altamente sviluppata con 37 miliardi di parametri attivi da un totale di 671 miliardi di parametri e una lunghezza del contesto di 128.000 token. Il modello implementa l'apprendimento avanzato delle violazioni al fine di ottenere un controllo auto -controllo, una riflessione multi -stage e la capacità di sostenere che è su misura per l'uomo. Questa architettura consente al modello di gestire compiti di ragionamento complessi attraverso processi di pensiero iterativo, che si differenzia tra i modelli vocali tradizionali.

Un aspetto particolarmente innovativo è lo sviluppo di una variante distillata, DeepSeek-R1-0528-Qwen3-8b, che è stata creata distillando i pensieri di DeepSeek-R1-0528 per il post-allenamento della base Qwen3-8b. Questa versione più piccola ottiene servizi impressionanti con requisiti di risorse significativamente più bassi e può essere eseguita su GPU con VRAM da 8-12 GB. Il modello ha ottenuto prestazioni all'avanguardia nel test AIME 2024 sotto modelli open source con un miglioramento del 10 % rispetto a QWEN3-8B ​​e prestazioni comparabili come il pensiero Qwen3-235b.

La metodologia di sviluppo mostra che DeepSeek si basa sempre più sul post-formazione con l'apprendimento del rinforzo, che ha portato ad un aumento del 40 % del consumo di token nella valutazione da 71 a 99 milioni di token. Ciò indica che il modello genera risposte più lunghe e più profonde senza cambiamenti architettonici fondamentali.

Posizione di mercato e dinamiche competitive

DeepSeek-R1-0528 si stabilisce come un serio concorrente dei principali modelli proprietari di società tecnologiche occidentali. Secondo l'analisi artificiale, il modello con 68 punti è allo stesso livello di Gemini 2.5 Pro di Google e di fronte a modelli come Xais Grok 3 Mini, Metas Llama 4 Maverick e Nvidias Nemotron Ultra. Nella categoria del codice, DeepSeek-R1-0528 raggiunge un livello appena sotto O4-Mini e O3.

La pubblicazione dell'aggiornamento ha avuto un impatto significativo sul panorama globale dell'intelligenza artificiale. Già la pubblicazione originale di DeepSeek-R1 nel gennaio 2025 ha portato a una rottura delle azioni tecnologiche al di fuori della Cina e ha messo in dubbio il presupposto che il ridimensionamento dell'IA richiedesse un enorme potere di calcolo e investimenti. La risposta dei concorrenti occidentali è stata rapida: Google ha introdotto tariffe di accesso scontate per Gemini, mentre Openai ha abbassato i prezzi e ha introdotto un modello Mini O3 che necessitava di meno potenza di calcolo.

È interessante notare che le analisi in stile testo di Eqbench mostrano che DeepSeek-R1 è più orientato verso Google che su OpenAai, il che indica che nello sviluppo potrebbero essere state utilizzate più output di gemelli sintetici. Questa osservazione sottolinea le complesse influenze e il trasferimento tecnologico tra i vari sviluppatori di intelligenza artificiale.

Efficienza e disponibilità dei costi

Un vantaggio competitivo decisivo di DeepSeek-R1-0528 è la sua straordinaria efficienza dei costi. La struttura dei prezzi è significativamente più economica di quella di OpenAI: i token di input costano $ 0,14 per milione di token per i colpi di cache e $ 0,55 ai mancati di cache, mentre i token di output costano $ 2,19 per milione di token. In confronto, Openai O1 richiede $ 15 per i token di input e $ 60 per i token di output per milione, il che rende DeepSeek-R1 oltre il 90-95 percento più economico.

Microsoft Azure offre anche DeepSeek-R1 con prezzi competitivi: la versione globale costa $ 0,00135 per i token di input e $ 0,0054 per i token di output per 1.000 token, mentre la versione regionale ha prezzi leggermente più alti. Questo prezzo rende il modello particolarmente interessante per le aziende e gli sviluppatori che vogliono utilizzare funzionalità di intelligenza artificiale di alta qualità senza gli alti costi delle soluzioni proprietarie.

La disponibilità come modello open source in co-licenza consente anche l'uso e la modifica commerciale senza commissioni di licenza. Gli sviluppatori possono gestire il modello a livello locale o utilizzare varie API, che offrono flessibilità e controllo sull'implementazione. Per gli utenti con risorse limitate, è disponibile la versione di parametri distillati da 8 miliardi, che funziona su hardware del consumatore con memoria di 24 GB.

Adatto a:

L'IA della Cina che raggiunge: cosa significa il successo di DeepSeek

DeepSeek-R1-0528 segna una svolta nello sviluppo dell'IA globale e dimostra che le aziende cinesi possono sviluppare modelli nonostante le restrizioni di esportazione statunitensi che competono con i sistemi Best Western. L'aggiornamento dimostra che le prestazioni significative aumentano senza cambiamenti architettonici fondamentali se vengono effettivamente utilizzate le ottimizzazioni post-training e l'apprendimento per la rinforzo. La combinazione di migliori prestazioni, costi drasticamente ridotti e domande di disponibilità open source hanno stabilito modelli di business nel settore dell'IA.

Le reazioni dei concorrenti occidentali al successo di DeepSeek mostrano già i primi cambiamenti di mercato: tagli ai prezzi a OpenAai e Google, nonché lo sviluppo di modelli che salutano le risorse. Con la pubblicazione prevista di DeepSeek-R2, originariamente prevista per il maggio 2025, questa pressione competitiva poteva ulteriormente intensificarsi. La storia di successo di DeepSeek-R1-0528 mostra che l'innovazione nell'intelligenza artificiale non richiede necessariamente investimenti e risorse aritmetiche, ma può essere raggiunta attraverso algoritmi intelligenti e metodi di sviluppo efficienti.

Adatto a:

 

La tua trasformazione AI, l'integrazione dell'IA ed esperto del settore della piattaforma AI

☑️ La nostra lingua commerciale è l'inglese o il tedesco

☑️ NOVITÀ: corrispondenza nella tua lingua nazionale!

 

Pioniere digitale: Konrad Wolfenstein

Konrad Wolfenstein

Sarei felice di servire te e il mio team come consulente personale.

Potete contattarmi compilando il modulo di contatto o semplicemente chiamandomi al numero +49 89 89 674 804 (Monaco) . Il mio indirizzo email è: wolfenstein xpert.digital

Non vedo l'ora di iniziare il nostro progetto comune.

 

 

☑️ Supporto alle PMI nella strategia, consulenza, pianificazione e implementazione

☑️ Creazione o riallineamento della strategia AI

☑️ Sviluppo aziendale pionieristico


⭐️ Intelligenza artificiale (KI) -AI Blog, hotspot e Hub di contenuti ⭐️ Ais Artificial Intelligence Search / Kis-Ki-Search / Neo SEO = NSEO (Ottimizzazione dei motori di ricerca di prossima generazione) ⭐️ China ⭐️ Xpaper