Selección de voz 📢


Deepseek-R1-0528: Deepseek Update devuelve el modelo de IA chino a la altura de los ojos con los líderes de la industria occidental

Publicado el 31 de mayo de 2025 / Actualización del: 31 de mayo de 2025 - Autor: Konrad Wolfenstein

Deepseek-R1-0528: Deepseek Update devuelve el modelo de IA chino a la altura de los ojos con los líderes de la industria occidental

Deepseek-r1-0528: Deepseek Update devuelve el modelo de IA chino a la altura de los ojos con los líderes de la industria occidental-imagen: xpert.digital

AI de código abierto en el límite: Deepseek realiza Openai y Google a la sombra

De 60 a 68: ai chino catapultado de Deepseek de regreso a la cima

Con la publicación de Deepseek-R1-0528 el 28 de mayo de 2025, la startup de KI china Deepseek logró un hito importante que ha redefinido el panorama global de IA. La actualización del modelo de lectura de código abierto muestra aumentos dramáticos de rendimiento y para las posiciones de primera vez Deepseek al mismo nivel que OpenAis O3 y Google Gemini 2.5 Pro. Es particularmente digno de mención que este rendimiento superior se logra con una fracción de los costos y con pesos del modelo completamente abierto, lo que plantea preguntas fundamentales sobre el futuro de los sistemas de IA patentados. El análisis artificial de la plataforma de calificación independiente clasifica el nuevo modelo con 68 puntos: un salto de 60 a 68 puntos corresponde a la diferencia de rendimiento entre OpenAai O1 y O3.

Adecuado para:

La actualización y sus mejoras técnicas

Deepseek-R1-0528 representa un desarrollo posterior sustancial, que no requiere ningún cambio en la arquitectura básica, pero logra aumentos significativos en el post-entrenamiento a través de optimizaciones algorítmicas y un mayor uso de recursos aritméticos. La actualización se centra principalmente en mejorar las habilidades de razonamiento y, según Deepseek, permite "procesos de pensamiento significativamente más profundos". Un ejemplo particularmente impresionante de esta mejora muestra en la prueba de matemáticas AIME 2025, donde la precisión aumentó del 70 por ciento al 87.5 por ciento. Al mismo tiempo, el número promedio de tokens por pregunta aumentó de 12,000 a 23,000 tokens, lo que indica procesos de procesamiento más intensivos.

Además de las mejoras de razonamiento, la actualización introduce nuevas funcionalidades importantes, incluida la salida de JSON y las vistas funcionales, una interfaz de usuario optimizada y alucinaciones reducidas. Estas innovaciones hacen que el modelo sea mucho más práctico para los desarrolladores y expandir significativamente su alcance. La disponibilidad permanece sin cambios: los usuarios de API existentes reciben automáticamente la actualización, mientras que los pesos del modelo todavía están disponibles bajo la licencia abierta en la cara abrazada.

Comparaciones de rendimiento y rendimiento de referencia

Los resultados de referencia de Deepseek-R1-0528 muestran mejoras impresionantes en todas las categorías de evaluación. En las tareas matemáticas, el valor de AIME 2024 aumentó de 79.8 a 91.4 por ciento, hmmt 2025 de 41.7 a 79.4 por ciento y CNMO 2024 de 78.8 a 86.9 por ciento. Estos resultados posicionan el modelo como uno de los sistemas de IA más potentes para las soluciones de problemas matemáticos en todo el mundo.

Con los puntos de referencia de programación, Deepseek-R1-0528 también muestra un progreso significativo. LivecodeBech mejoró de 63.5 a 73.3 por ciento, Asider Polyglot de 53.3 a 71.6 por ciento y SWE verificó de 49.2 a 57.6 por ciento. La calificación de CodeForces subió de 1,530 a 1.930 puntos, lo que clasifica el modelo en el grupo superior de solucionadores de problemas algorítmicos. En comparación con los modelos competidores, Deepseek-R1 alcanza el 49.2 por ciento en SWE verificado y, por lo tanto, está justo por delante de OpenAAI O1-1217 con 48.9 por ciento, mientras que el código de código con 96.3 porcentajes y una calificación ELO de 2029 puntos están muy cerca de OpenAis.

El conocimiento general y las pruebas de lógica confirman el amplio aumento en el rendimiento: GPQA-Diamond aumentó de 71.5 a 81.0 por ciento, el último examen de la humanidad de 8.5 a 17.7 por ciento, MMLU-Pro de 84.0 a 85.0 por ciento y MMLU-Redux de 92.9 a 93.4 por ciento. Solo con OpenAis Simpleqa fue una ligera disminución de 30.1 a 27.8 por ciento. Estas mejoras integrales documentan que Deepseek-R1-0528 no solo es competitivo en áreas especializadas, sino en todo el espectro de tareas cognitivas.

Arquitectura técnica e innovaciones

La base técnica de Deepseek-R1-0528 se basa en una arquitectura MOE (mezcla de expertos) altamente desarrollada con 37 mil millones de parámetros activos de un total de 671 mil millones de parámetros y una longitud de contexto de 128,000 tokens. El modelo implementa el aprendizaje avanzado de la purificación para lograr la reflexión de autoevaluación, la reflexión de múltiples etapas y la capacidad de argumentar que se adapta a los humanos. Esta arquitectura permite al modelo administrar tareas de razonamiento complejas a través de procesos de pensamiento iterativo, que diferencia entre los modelos de voz tradicionales.

Un aspecto particularmente innovador es el desarrollo de una variante destilada, Deepseek-R1-0528-Qwen3-8b, que se creó al destilar los pensamientos de Deepseek-R1-0528 para el post-entrenamiento de la base QWEN3-8B. Esta versión más pequeña logra servicios impresionantes con requisitos de recursos significativamente más bajos y se puede ejecutar en GPU con 8-12 GB VRAM. El modelo logró el rendimiento de vanguardia en la prueba AIME 2024 bajo modelos de código abierto con una mejora del 10 por ciento en comparación con QWEN3-8B ​​y un rendimiento comparable como QWEN3-235B-pensamiento.

La metodología de desarrollo muestra que Deepseek se basa cada vez más en la capacitación posterior con el aprendizaje de refuerzo, lo que condujo a un aumento del 40 por ciento en el consumo de tokens en la evaluación de 71 a 99 millones de tokens. Esto indica que el modelo genera respuestas más largas y profundas sin cambios arquitectónicos fundamentales.

Posición de mercado y dinámica competitiva

Deepseek-R1-0528 se establece como un competidor serio para los principales modelos patentados de las empresas de tecnología occidental. Según el análisis artificial, el modelo con 68 puntos está en el mismo nivel que el Gemini 2.5 Pro de Google y delante de modelos como XAIS Grok 3 Mini, Metas Llama 4 Maverick y Nvidias Nemotron Ultra. En la categoría de código, Deepseek-R1-0528 alcanza un nivel justo por debajo de O4-Mini y O3.

La publicación de la actualización ha tenido un impacto significativo en el panorama global de IA. La publicación original de Deepseek-R1 en enero de 2025 condujo a un robo de acciones tecnológicas fuera de China y cuestionó la suposición de que la escala de la IA requirió una enorme potencia informática e inversiones. La respuesta de los competidores occidentales fue rápida: Google introdujo aranceles de acceso con descuento para Gemini, mientras que OpenAi bajó los precios e introdujo un modelo O3 Mini que necesitaba menos potencia informática.

Curiosamente, los análisis de estilo de texto de Eqbench muestran que Deepseek-R1 está más orientado hacia Google que en OpenAai, lo que indica que se han utilizado más salidas de Géminis sintéticas en el desarrollo. Esta observación subraya las complejas influencias y la transferencia de tecnología entre los diversos desarrolladores de IA.

Costo eficiencia y disponibilidad

Una ventaja competitiva decisiva de Deepseek-R1-0528 es su extraordinaria eficiencia de rentabilidad. La estructura de precios es significativamente más barata que la de OpenAI: los tokens de entrada cuestan $ 0.14 por millón de tokens para éxitos de caché y $ 0.55 en Cache Misses, mientras que los tokens de salida cuestan $ 2.19 por millón de tokens. En comparación, Openai O1 requiere $ 15 para tokens de entrada y $ 60 para tokens de producción por millón, lo que hace que Deepseek-R1 sea más de 90-95 por ciento más barato.

Microsoft Azure también ofrece Deepseek-R1 con precios competitivos: la versión global cuesta $ 0.00135 para tokens de entrada y $ 0.0054 para tokens de producción por cada 1,000 tokens, mientras que la versión regional tiene precios ligeramente más altos. Este precio hace que el modelo sea particularmente atractivo para empresas y desarrolladores que desean usar funcionalidades de IA de alta calidad sin los altos costos de las soluciones patentadas.

La disponibilidad como modelo de código abierto bajo co-licencia también permite el uso y modificación comercial sin tarifas de licencia. Los desarrolladores pueden operar el modelo localmente o usar varias API, que ofrecen flexibilidad y control sobre la implementación. Para los usuarios con recursos limitados, la versión de parámetros de 8 mil millones de destilados está disponible, que se ejecuta en hardware del consumidor con memoria de 24 GB.

Adecuado para:

La IA de China se pone al día: lo que significa el éxito de Deepseek

Deepseek-R1-0528 marca un punto de inflexión en el desarrollo global de IA y demuestra que las empresas chinas pueden desarrollar modelos a pesar de las restricciones de exportación de los Estados Unidos que compiten con los Best Western Systems. La actualización demuestra que los aumentos significativos de rendimiento sin cambios arquitectónicos fundamentales son posibles si las optimizaciones posteriores al entrenamiento y el aprendizaje de la revisión se usan de manera efectiva. La combinación del rendimiento superior, los costos reducidos drásticamente y las preguntas de disponibilidad de código abierto establecieron modelos comerciales en la industria de la IA.

Las reacciones de los competidores occidentales al éxito de Deepseek ya muestran los primeros cambios en el mercado: recortes de precios en OpenAai y Google, así como el desarrollo de modelos de ahorro de recursos. Con la publicación esperada de Deepseek-R2, que originalmente se planificó para mayo de 2025, esta presión competitiva podría intensificarse aún más. La historia de éxito de Deepseek-R1-0528 muestra que la innovación en la IA no necesariamente requiere inversiones masivas y recursos aritméticos, pero se puede lograr a través de algoritmos inteligentes y métodos de desarrollo eficientes.

Adecuado para:

 

Su transformación de IA, integración de IA y experto en la industria de la plataforma de IA

☑️ Nuestro idioma comercial es inglés o alemán.

☑️ NUEVO: ¡Correspondencia en tu idioma nacional!

 

Pionero digital - Konrad Wolfenstein

Konrad Wolfenstein

Estaré encantado de servirle a usted y a mi equipo como asesor personal.

Puedes ponerte en contacto conmigo rellenando el formulario de contacto o simplemente llámame al +49 89 89 674 804 (Múnich) . Mi dirección de correo electrónico es: wolfenstein xpert.digital

Estoy deseando que llegue nuestro proyecto conjunto.

 

 

☑️ Apoyo a las PYMES en estrategia, consultoría, planificación e implementación.

☑️ Creación o realineación de la estrategia de IA

☑️ Desarrollo empresarial pionero


⭐️ Blog de inteligencia artificial (KI) -ai, punto de acceso y centro de contenido ⭐️ ais Búsqueda de inteligencia artificial / Kis-Ki-Search / Neo SEO = NSEO (Optimización de motores de búsqueda de próxima generación) ⭐️ China ⭐️ XPaper