Publié le: 31 mai 2025 / mise à jour de: 31 mai 2025 - Auteur: Konrad Wolfenstein
Deepseek-R1-0528: Deepseek Update ramène le modèle d'IA chinois au niveau des yeux avec les leaders de l'industrie occidentale-Image: Xpert.Digital
IA open source à la limite: Deepseek effectue Openai et Google à l'ombre
De 60 à 68: Deepseek a catapulté l'IA chinois au sommet
Avec la publication de Deepseek-R1-0528 le 28 mai 2025, la startup chinoise KI Deepseek a atteint une étape importante qui a redéfini le paysage mondial de l'IA. La mise à jour du modèle de lecture open source montre des augmentations de performances dramatiques et positionne pour la première fois Deepseek au même niveau qu'OpenAIS O3 et Google Gemini 2.5 Pro. Il est particulièrement remarquable que cette performance supérieure est obtenue avec une fraction des coûts et avec des poids de modèle complètement ouverts, ce qui soulève des questions fondamentales sur l'avenir des systèmes d'IA propriétaires. La plate-forme de notation indépendante L'analyse artificielle classe le nouveau modèle avec 68 points - un bond de 60 à 68 points correspond à la différence de performance entre OpenAai O1 et O3.
Convient à:
La mise à jour et ses améliorations techniques
Deepseek-R1-0528 représente un développement supplémentaire substantiel, qui ne nécessite aucun changement à l'architecture de base, mais atteint des augmentations significatives de la formation post-entraînement par le biais d'optimisations algorithmiques et une utilisation accrue des ressources arithmétiques. La mise à jour se concentre principalement sur l'amélioration des compétences de raisonnement et, selon Deepseek, permet des «processus de réflexion beaucoup plus profonds». Un exemple particulièrement impressionnant de cette amélioration montre le test de mathématiques AIME 2025, où la précision est passé de 70% à 87,5%. Dans le même temps, le nombre moyen de jetons par question est passé de 12 000 à 23 000 jetons, ce qui indique des processus de traitement plus intensifs.
En plus des améliorations du raisonnement, la mise à jour introduit de nouvelles fonctionnalités importantes, notamment la sortie JSON et les vues fonctionnelles, une interface utilisateur optimisée et des hallucinations réduites. Ces innovations rendent le modèle beaucoup plus pratique pour les développeurs et élargissent considérablement sa portée. La disponibilité reste inchangée: les utilisateurs d'API existants reçoivent automatiquement la mise à jour, tandis que les poids du modèle sont toujours disponibles sous la co-licence ouverte sur la face de l'étreinte.
Comparaisons de performance et de performance de référence
Les résultats de référence de Deepseek-R1-0528 montrent des améliorations impressionnantes dans toutes les catégories d'évaluation. Dans les tâches mathématiques, la valeur AIME 2024 est passée de 79,8 à 91,4%, HMMT 2025 de 41,7 à 79,4% et CNMO 2024 de 78,8 à 86,9%. Ces résultats positionnent le modèle comme l'un des systèmes d'IA les plus puissants pour les solutions de problèmes mathématiques dans le monde.
Avec des références de programmation, Deepseek-R1-0528 montre également des progrès significatifs. Livecodebech s'est amélioré de 63,5 à 73,3%, Aider Polyglot de 53,3 à 71,6% et SWE vérifié de 49,2 à 57,6%. La notation des forces de code est passée de 1 530 à 1 930 points, qui classe le modèle dans le groupe supérieur de résolveurs de problèmes algorithmiques. Comparé aux modèles concurrents, Deepseek-R1 atteint 49,2% chez SWE vérifié et est donc juste en avance sur OpenAAI O1-1217 avec 48,9%, tandis que lesforces de code avec 96,3 pourcentages et une note ELO de 2029 points sont très proches de OpenAIS.
Les connaissances générales et les tests logiques confirment la large augmentation des performances: GPQA-Diamond est passé de 71,5 à 81,0%, le dernier examen de l'humanité de 8,5 à 17,7%, MMLU-PRO de 84,0 à 85,0% et MMLU-Redux de 92,9 à 93,4%. Ce n'est qu'avec OpenAIS Simpleqa, il s'agissait d'une légère baisse de 30,1 à 27,8%. Ces améliorations complètes documentent que Deepseek-R1-0528 est non seulement compétitif dans des domaines spécialisés, mais dans l'ensemble du spectre des tâches cognitives.
Architecture technique et innovations
La base technique de Deepseek-R1-0528 est basée sur une architecture MOE (mélange d'experts) très développée avec 37 milliards de paramètres actifs, contre un total de 671 milliards de paramètres et une durée de contexte de 128 000 jetons. Le modèle met en œuvre un apprentissage avancé des combinaisons afin d'atteindre une réflexion auto-vérifiée et multi-étages et la capacité de discuter qui est adaptée aux humains. Cette architecture permet au modèle de gérer des tâches de raisonnement complexes à travers des processus de pensée itératifs, qui différencie les modèles vocaux traditionnels.
Un aspect particulièrement innovant est le développement d'une variante distillée, Deepseek-R1-0528-QWEN3-8B, qui a été créée en distillant les pensées de Deepseek-R1-0528 pour la base post-entraînement de la base QWEN3-8B. Cette version plus petite obtient des services impressionnants avec des exigences en matière de ressources considérablement plus faibles et peut être exécuté sur des GPU avec 8-12 Go de VRAM. Le modèle a atteint des performances de pointe dans le test AIME 2024 sous des modèles open source avec une amélioration de 10% par rapport à QWEN3-8B et des performances comparables telles que QWEN3-235B-Thinking.
La méthodologie de développement montre que Deepseek repose de plus en plus sur le post-formation avec l'apprentissage du renforcement, ce qui a entraîné une augmentation de 40% de la consommation de jetons dans l'évaluation de 71 à 99 millions de jetons. Cela indique que le modèle génère des réponses plus longues et plus profondes sans changements architecturaux fondamentaux.
Position du marché et dynamique concurrentielle
Deepseek-R1-0528 s'établit comme un concurrent sérieux des principaux modèles propriétaires d'entreprises technologiques occidentales. Selon une analyse artificielle, le modèle avec 68 points est au même niveau que Gemini 2.5 Pro de Google et devant des modèles tels que Xais Grok 3 Mini, Metas Llama 4 Maverick et Nvidias Nemotron Ultra. Dans la catégorie de code, Deepseek-R1-0528 atteint un niveau juste en dessous de O4-MinI et O3.
La publication de la mise à jour a eu un impact significatif sur le paysage mondial de l'IA. Déjà, la publication originale de Deepseek-R1 en janvier 2025 a conduit à une effraction des actions technologiques en dehors de la Chine et a remis en question l'hypothèse selon laquelle la mise à l'échelle de l'IA nécessitait d'énormes puissance de calcul et des investissements. La réponse des concurrents occidentaux a été rapide: Google a introduit des tarifs d'accès à prix réduit pour les Gémeaux, tandis que OpenAI a baissé les prix et a introduit un modèle O3 Mini qui nécessitait moins de puissance de calcul.
Fait intéressant, les analyses de style texte d'Eqbench montrent que Deepseek-R1 est plus orienté vers Google que sur OpenAai, ce qui indique que des sorties Gemini plus synthétiques peuvent avoir été utilisées dans le développement. Cette observation souligne les influences complexes et le transfert de technologie entre les différents développeurs d'IA.
Rentabilité et disponibilité
Un avantage concurrentiel décisif de Deepseek-R1-0528 est sa rentabilité extraordinaire. La structure des prix est nettement moins chère que celle de l'OpenAI: les jetons d'entrée coûtent 0,14 $ par million de jetons pour les coups sûrs de cache et 0,55 $ aux ratés de cache, tandis que les jetons de sortie coûtent 2,19 $ par million de jetons. En comparaison, Openai O1 nécessite 15 $ pour les jetons d'entrée et 60 $ pour les jetons de sortie par million, ce qui rend Deepseek-R1 plus de 90 à 95% moins cher.
Microsoft Azure propose également Deepseek-R1 avec des prix compétitifs: la version globale coûte 0,00135 $ pour les jetons d'entrée et 0,0054 $ pour les jetons de production pour 1 000 jetons, tandis que la version régionale a des prix légèrement plus élevés. Cette tarification rend le modèle particulièrement attrayant pour les entreprises et les développeurs qui souhaitent utiliser des fonctionnalités d'IA de haute qualité sans les coûts élevés des solutions propriétaires.
La disponibilité en tant que modèle open source sous la co-licence permet également une utilisation et une modification commerciales sans frais de licence. Les développeurs peuvent exploiter le modèle localement ou utiliser diverses API, ce qui offre une flexibilité et un contrôle sur la mise en œuvre. Pour les utilisateurs avec des ressources limitées, la version distillée de 8 milliards de paramètres est disponible, qui fonctionne sur le matériel de consommation avec une mémoire de 24 Go.
Convient à:
- Catch de la Chine -Up dans l'intelligence artificielle: le cas Deepseek et l'utilisation des données stratégiques
CHINE'S IA Rattrapage: ce que signifie le succès de Deepseek
Deepseek-R1-0528 marque un tournant dans le développement mondial de l'IA et démontre que les entreprises chinoises peuvent développer des modèles malgré des restrictions d'exportation américaines qui rivalisent avec les meilleurs systèmes occidentaux. La mise à jour prouve que des augmentations de performances significatives sans des changements architecturaux fondamentaux sont possibles si des optimisations post-entraînement et un apprentissage des reformes sont effectivement utilisés. La combinaison des performances supérieures, des coûts considérablement réduits et des questions de disponibilité open source ont établi des modèles commerciaux dans l'industrie de l'IA.
Les réactions des concurrents occidentaux au succès de Deepseek montrent déjà les premiers changements de marché: les baisses de prix à OpenAai et Google ainsi que le développement de modèles d'économie de ressources. Avec la publication prévue de Deepseek-R2, qui était initialement prévue pour mai 2025, cette pression concurrentielle pourrait encore s'intensifier. La réussite de Deepseek-R1-0528 montre que l'innovation dans l'IA ne nécessite pas nécessairement d'investissements massifs et de ressources arithmétiques, mais peut être réalisée grâce à des algorithmes intelligents et à des méthodes de développement efficaces.
Convient à:
Votre transformation d'IA, l'intégration de l'IA et l'expert de l'industrie de la plate-forme d'IA
☑️ Notre langue commerciale est l'anglais ou l'allemand
☑️ NOUVEAU : Correspondance dans votre langue nationale !
Je serais heureux de vous servir, vous et mon équipe, en tant que conseiller personnel.
Vous pouvez me contacter en remplissant le formulaire de contact ou simplement m'appeler au +49 89 89 674 804 (Munich) . Mon adresse e-mail est : wolfenstein ∂ xpert.digital
J'attends avec impatience notre projet commun.