Seleção de voz 📢


Deepseek-R1-0528: Atualização Deepseek traz o modelo de IA chinês de volta ao nível dos olhos com os líderes da indústria ocidental

Publicado em: 31 de maio de 2025 / atualização de: 31 de maio de 2025 - Autor: Konrad Wolfenstein

Deepseek-R1-0528: Atualização Deepseek traz o modelo de IA chinês de volta ao nível dos olhos com os líderes da indústria ocidental

Deepseek-R1-0528: Atualização Deepseek traz o modelo de IA chinês de volta ao nível dos olhos com os líderes da indústria ocidental: xpert.digital

Open Source AI no limite: Deepseek executa o OpenAi e Google na sombra

De 60 a 68: Deepseek Catapultou Chinese AI de volta ao topo

Com a publicação da Deepseek-R1-0528 em 28 de maio de 2025, a startup Ki chinesa Deepseek alcançou um marco importante que redefiniu o cenário global da IA. A atualização do modelo de leitura de código aberto mostra o desempenho dramático aumenta e, pela primeira vez, posiciona a Deepseek no mesmo nível que o OpenAis O3 e o Google Gemini 2.5 Pro. É particularmente digno de nota que esse desempenho superior é alcançado com uma fração dos custos e com pesos completamente abertos, o que levanta questões fundamentais sobre o futuro dos sistemas proprietários de IA. A plataforma de classificação independente Análise artificial classifica o novo modelo com 68 pontos - um salto de 60 para 68 pontos corresponde à diferença de desempenho entre o OpenAai O1 e o O3.

Adequado para:

A atualização e suas melhorias técnicas

Deepseek-R1-0528 representa um desenvolvimento substancial, que não requer alterações na arquitetura básica, mas alcança aumentos significativos no pós-treinamento por meio de otimizações algorítmicas e aumento do uso de recursos aritméticos. A atualização se concentra principalmente em melhorar as habilidades de raciocínio e, de acordo com a Deepseek, permite "processos de pensamento significativamente mais profundos". Um exemplo particularmente impressionante dessa melhoria mostra no teste de matemática Aime 2025, onde a precisão aumentou de 70 % para 87,5 %. Ao mesmo tempo, o número médio de tokens por pergunta aumentou de 12.000 para 23.000 tokens, o que indica processos de processamento mais intensivos.

Além das melhorias de raciocínio, a atualização introduz novas funcionalidades importantes, incluindo saída JSON e visualizações funcionais, uma interface de usuário otimizada e alucinações reduzidas. Essas inovações tornam o modelo muito mais prático para os desenvolvedores e expandem significativamente seu escopo. A disponibilidade permanece inalterada: os usuários de API existentes recebem automaticamente a atualização, enquanto os pesos do modelo ainda estão disponíveis sob a co-licenciamento aberto em abraçar o rosto.

Comparações de desempenho e desempenho de referência

Os resultados de referência do DeepSeek-R1-0528 mostram melhorias impressionantes em todas as categorias de avaliação. Nas tarefas matemáticas, o valor Aime 2024 aumentou de 79,8 para 91,4 %, HMMT 2025 de 41,7 para 79,4 % e CNMO 2024 de 78,8 para 86,9 %. Esses resultados posicionam o modelo como um dos sistemas de IA mais poderosos para soluções de problemas matemáticos em todo o mundo.

Com os benchmarks de programação, o DeepSeek-R1-0528 também mostra progresso significativo. O LiveCodeBech melhorou de 63,5 para 73,3 %, a poliglota de caça de 53,3 para 71,6 % e o SWE verificou de 49,2 a 57,6 %. A classificação das forças de código subiu de 1.530 a 1.930 pontos, que classificam o modelo no grupo principal de solucionadores de problemas algorítmicos. Comparado aos modelos concorrentes, o DeepSeek-R1 atinge 49,2 % na SWE Verificado e, portanto, está logo à frente do OpenAai O1-1217, com 48,9 %, enquanto as forças de código com 96,3 porcentagens e uma classificação ELO de 2029 pontos estão muito próximas do OpenAis.

Os testes gerais de conhecimento e lógica confirmam o amplo aumento no desempenho: o GPQA-Diamond subiu de 71,5 para 81,0 %, o último exame da humanidade de 8,5 para 17,7 %, MMLU-pro de 84,0 a 85,0 % e MMLU-redux de 92,9 a 93,4 %. Somente com o Openais Simpleqa foi um ligeiro declínio de 30,1 a 27,8 %. Essas melhorias abrangentes documentam que o DeepSeek-R1-0528 não é apenas competitivo em áreas especializadas, mas em todo o espectro de tarefas cognitivas.

Arquitetura técnica e inovações

A base técnica do Deepseek-R1-0528 é baseada em uma arquitetura MOE altamente desenvolvida (mistura de especialistas), com 37 bilhões de parâmetros ativos de um total de 671 bilhões de parâmetros e um comprimento de contexto de 128.000 tokens. O modelo implementa a aprendizagem avançada de purificação para obter uma reflexão de auto -estágios e a capacidade de argumentar que é adaptado aos seres humanos. Essa arquitetura permite que o modelo gerencie tarefas complexas de raciocínio por meio de processos de pensamento iterativo, que diferenciam entre os modelos de voz tradicionais.

Um aspecto particularmente inovador é o desenvolvimento de uma variante destilada, Deepseek-R1-0528-QWEN3-8B, que foi criada destilando os pensamentos de Deepseek-R1-0528 para o pós-treinamento da base QWEN3-8B. Esta versão menor alcança serviços impressionantes com requisitos de recursos significativamente mais baixos e pode ser executado em GPUs com VRAM de 8 a 12 GB. O modelo alcançou o desempenho de ponta no teste AIME 2024 em modelos de código aberto com uma melhoria de 10 % em comparação com QWEN3-8B ​​e desempenho comparável, como o QWEN3-235B.

A metodologia de desenvolvimento mostra que a DeepSeek depende cada vez mais do pós-treinamento com o aprendizado de reforço, o que levou a um aumento de 40 % no consumo de token nos tokens de 71 a 99 milhões de tokens. Isso indica que o modelo gera respostas mais longas e profundas sem mudanças arquitetônicas fundamentais.

Posição de mercado e dinâmica competitiva

Deepseek-R1-0528 se estabelece como um concorrente sério dos principais modelos proprietários das empresas de tecnologia ocidental. De acordo com a análise artificial, o modelo com 68 pontos está no mesmo nível que o Gemini 2.5 Pro do Google e na frente de modelos como Xais Grok 3 mini, Metas Llama 4 Maverick e Nvidias Nemotron Ultra. Na categoria de código, o DeepSeek-R1-0528 atinge um nível logo abaixo de O4-mini e O3.

A publicação da atualização teve um impacto significativo no cenário global da IA. A publicação original do DeepSeek-R1 já em janeiro de 2025 levou a uma invasão de ações de tecnologia fora da China e questionou a suposição de que a escala da IA ​​exigia enorme poder de computação e investimentos. A resposta dos concorrentes ocidentais foi rápida: o Google introduziu tarifas de acesso com desconto para Gêmeos, enquanto o OpenAI reduziu os preços e introduziu um modelo O3 Mini que precisava de menos poder de computação.

Curiosamente, as análises de estilo de texto do eqbench mostram que o DeepSeek-R1 é mais orientado para o Google do que no OpenAai, o que indica que mais saídas sintéticas de gêmeos podem ter sido usadas no desenvolvimento. Essa observação destaca as influências complexas e a transferência de tecnologia entre os vários desenvolvedores de IA.

Eficiência de custos e disponibilidade

Uma vantagem competitiva decisiva do DeepSeek-R1-0528 é sua extraordinária eficiência de custos. A estrutura de preços é significativamente mais barata que a do OpenAI: os tokens de entrada custam US $ 0,14 por milhão de tokens para acertos de cache e US $ 0,55 em erros de cache, enquanto os tokens de saída custam US $ 2,19 por milhão de tokens. Em comparação, o OpenAI O1 requer US $ 15 para tokens de entrada e US $ 60 para tokens de produção por milhão, o que torna o DeepSeek-R1 acima de 90-95 % mais barato.

O Microsoft Azure também oferece Deepseek-R1 com preços competitivos: a versão global custa US $ 0,00135 para tokens de entrada e US $ 0,0054 para tokens de produção por 1.000 tokens, enquanto a versão regional tem preços um pouco mais altos. Esse preço torna o modelo particularmente atraente para empresas e desenvolvedores que desejam usar funcionalidades de AI de alta qualidade sem os altos custos de soluções proprietárias.

A disponibilidade como modelo de código aberto sob co-licenciamento também permite o uso e a modificação comercial sem taxas de licença. Os desenvolvedores podem operar o modelo localmente ou usar várias APIs, que oferecem flexibilidade e controle sobre a implementação. Para usuários com recursos limitados, a versão destilada de 8 bilhões de parâmetros está disponível, que é executada em hardware de consumo com memória de 24 GB.

Adequado para:

A IA da China está alcançando: o que significa o sucesso do Deepseek

Deepseek-R1-0528 marca um ponto de virada no desenvolvimento global da IA ​​e demonstra que as empresas chinesas podem desenvolver modelos, apesar das restrições de exportação dos EUA que competem com os melhores sistemas ocidentais. A atualização prova que o desempenho significativo aumenta sem mudanças arquitetônicas fundamentais se otimizações pós-treinamento e a aprendizagem de re-forcelações forem efetivamente usadas. A combinação de desempenho superior, custos drasticamente reduzidos e questões de disponibilidade de código aberto estabeleceram modelos de negócios na indústria de IA.

As reações dos concorrentes ocidentais ao sucesso da Deepseek já mostram as primeiras mudanças no mercado: cortes de preços no OpenAai e Google, bem como o desenvolvimento de modelos de salvamento de recursos. Com a publicação esperada do DeepSeek-R2, que foi originalmente planejado para maio de 2025, essa pressão competitiva poderia se intensificar ainda mais. A história de sucesso de Deepseek-R1-0528 mostra que a inovação na IA não exige necessariamente investimentos maciços e recursos aritméticos, mas pode ser alcançada por meio de algoritmos inteligentes e métodos de desenvolvimento eficientes.

Adequado para:

 

Sua transformação de IA, integração de IA e especialista do setor de plataforma de IA

☑️ Nosso idioma comercial é inglês ou alemão

☑️ NOVO: Correspondência em seu idioma nacional!

 

Pioneiro Digital - Konrad Wolfenstein

Konrad Wolfenstein

Ficarei feliz em servir você e minha equipe como consultor pessoal.

Você pode entrar em contato comigo preenchendo o formulário de contato ou simplesmente ligando para +49 89 89 674 804 (Munique) . Meu endereço de e-mail é: wolfenstein xpert.digital

Estou ansioso pelo nosso projeto conjunto.

 

 

☑️ Apoio às PME em estratégia, consultoria, planeamento e implementação

☑️ Criação ou realinhamento da estratégia de IA

☑️ Desenvolvimento de negócios pioneiro


⭐️ Inteligência artificial (KI) -AI Blog, ponto de acesso e conteúdo ⭐️ AIS Pesquisa de Inteligência Artificial / Kis-Ki-Search / Neo Seo = NSEO (otimização de mecanismo de pesquisa de próxima geração) ⭐️ China ⭐️ Xpaper