게시 : 2025 년 5 월 31 일 / 업데이트 : 2025 년 5 월 31 일 - 저자 : Konrad Wolfenstein
한계에서 오픈 소스 AI : DeepSeek은 그늘에서 OpenAi와 Google을 수행합니다.
60에서 68까지 : 심한 시원이 중국어 AI가 상단으로 돌아 왔습니다.
2025 년 5 월 28 일 DeepSeek-R1-0528의 출판으로 중국 KI 스타트 업 Deepseek은 글로벌 AI 환경을 재정의 한 중요한 이정표를 달성했습니다. 오픈 소스 독자 모델의 업데이트는 극적인 성능이 높아지고 처음에는 Openais O3 및 Google Gemini 2.5 Pro와 같은 수준에서 Deepseek을 처음으로 위치시킵니다. 이 최고 성능은 비용의 일부와 완전히 개방형 모델 가중치로 달성되므로 독점 AI 시스템의 미래에 대한 근본적인 의문을 제기합니다. 독립 등급 플랫폼 인공 분석은 새 모델을 68 점으로 분류합니다. 60에서 68 점의 점프는 Openaai O1과 O3의 성능 차이에 해당합니다.
적합:
업데이트 및 기술 개선
DeepSeek-R1-0528은 실질적인 추가 개발을 나타내며, 이는 기본 아키텍처에 대한 변경이 필요하지 않지만 알고리즘 최적화를 통한 후 훈련이 크게 증가하고 산술 자원의 사용이 증가합니다. 이 업데이트는 주로 추론 기술을 향상시키는 데 중점을두고 있으며 DeepSeek에 따르면“상당히 더 깊은 사고 과정”을 가능하게합니다. 이 개선의 특히 인상적인 예는 AIME 2025 수학 테스트에서 정확도가 70 %에서 87.5 %로 상승했습니다. 동시에, 질문 당 평균 토큰 수는 12,000에서 23,000 개의 토큰으로 증가하여 더 집중적 인 처리 프로세스를 나타냅니다.
추론 개선 외에도 업데이트는 JSON 출력 및 기능적보기, 최적화 된 사용자 인터페이스 및 환각 감소를 포함한 중요한 새로운 기능을 소개합니다. 이러한 혁신은 개발자에게 모델을 훨씬 실용적으로 만들고 범위를 크게 확장시킵니다. 가용성은 변경되지 않습니다. 기존 API 사용자는 자동으로 업데이트를 수신하는 반면, 모델 가중치는 여전히 공동 라이센스에서 포옹 페이스에서 사용할 수 있습니다.
성능 및 성능 비교 벤치 마크
DeepSeek-R1-0528의 벤치 마크 결과는 모든 평가 범주에서 인상적인 개선을 보여줍니다. 수학적 작업에서 AIME 2024 값은 79.8에서 91.4 %, HMMT 2025는 41.7에서 79.4 %, CNMO 2024는 78.8에서 86.9 %로 증가했습니다. 이 결과는 모델을 전 세계적으로 수학적 문제 솔루션을위한 가장 강력한 AI 시스템 중 하나로 배치합니다.
프로그래밍 벤치 마크를 사용하면 DeepSeek-R1-0528도 상당한 진전을 보여줍니다. Livecodebech는 63.5에서 73.3 %로, Aider Polyglot은 53.3에서 71.6 %로 향상되었으며 SWE는 49.2에서 57.6 %로 확인되었습니다. Codeforces 등급은 1,530 점에서 1,930 점으로 상승하여 모델을 상단 알고리즘 문제 해결사 그룹으로 분류합니다. 경쟁 모델과 비교할 때 DeepSeek-R1은 SWE 검증에서 49.2 %에 도달하므로 Openaai O1-1217보다 48.9 %에 달하며 Codeforces는 96.3 %, ELO 등급의 2029 점은 OpenAIS에 매우 가깝습니다.
일반 지식 및 논리 테스트는 성능의 광범위한 증가를 확인했습니다. GPQA- 다이아몬드는 71.5에서 81.0 %로 상승했으며 인류의 마지막 시험은 8.5에서 17.7 %, MMLU-PRO는 84.0에서 85.0 %, MMLU-REDUX는 92.9에서 93.4 %로 상승했습니다. Openais의 경우에만 SimpleQA는 30.1에서 27.8 %로 약간 감소했습니다. 이러한 포괄적 인 개선 사항은 DeepSeek-R1-0528이 전문 분야에서 경쟁력이있을뿐만 아니라 전체인지 작업에 걸쳐 경쟁력이 있다는 문서를 문서화합니다.
기술 아키텍처 및 혁신
DeepSeek-R1-0528의 기술적 기반은 총 6,710 억 매개 변수의 370 억 활성 매개 변수와 128,000 개의 토큰의 370 억 활성 매개 변수를 갖춘 고도로 개발 된 MOE (전문가 혼합) 아키텍처를 기반으로합니다. 이 모델은 자기 점검, 다중 단계 반사 및 인간에게 맞춤화 된 주장을 달성하기 위해 고급 직무 학습을 구현합니다. 이 아키텍처를 통해 모델은 반복적 인 사고 과정을 통해 복잡한 추론 작업을 관리 할 수 있으며, 이는 전통적인 음성 모델을 구별합니다.
특히 혁신적인 측면은 증류 변형 인 Deepseek-0528-QWEN3-8B의 개발이며, 이는 QWEN3-8B베이스의 후 훈련을 위해 DeepSeek-R1-0528의 생각을 증류시켜 만들어졌습니다. 이 작은 버전은 리소스 요구 사항이 상당히 낮은 인상적인 서비스를 달성하며 8-12GB VRAM으로 GPU에서 실행할 수 있습니다. 이 모델은 오픈 소스 모델에서 AIME 2024 테스트에서 최첨단 성능을 달성하여 QWEN3-8B에 비해 10 % 개선 및 QWEN3-235B-thinking과 같은 비슷한 성능을 달성했습니다.
개발 방법론은 DeepSeek이 강화 학습으로 훈련 후에 점점 더 의존하고 있으며, 이는 71 ~ 9,900 만 개의 토큰으로 평가에서 토큰 소비가 40 % 증가했습니다. 이는 모델이 기본적인 건축 변화없이 더 길고 깊은 답변을 생성 함을 나타냅니다.
시장 위치와 경쟁 역학
DeepSeek-R1-0528은 서양 기술 회사의 주요 독점 모델에 대한 심각한 경쟁자로 자리 매김합니다. 인공 분석에 따르면, 68 점의 모델은 Google의 Gemini 2.5 Pro와 같은 수준이며 Xais Grok 3 Mini, Metas Llama 4 Maverick 및 Nvidias Nemotron Ultra와 같은 모델 앞에 있습니다. 코드 범주에서 DeepSeek-R1-0528은 O4-MINI 및 O3 바로 아래의 레벨에 도달합니다.
업데이트의 출판은 글로벌 AI 환경에 큰 영향을 미쳤습니다. 2025 년 1 월 DeepSeek-R1의 원래 출판은 이미 중국 이외의 기술 점유율의 침입으로 이어졌으며 AI의 스케일링이 엄청난 컴퓨팅 힘과 투자를 요구했다는 가정에 의문을 제기했습니다. Google은 Gemini에 대한 할인 된 액세스 관세를 도입 한 반면 Openai는 가격을 낮추고 컴퓨팅 전력이 적은 O3 미니 모델을 도입 한 반면 Google은 Gemini에 대한 할인 된 액세스 관세를 도입했습니다.
흥미롭게도, Eqbench의 텍스트 스타일 분석에 따르면 DeepSeek-R1은 Openaai보다 Google을 향한 지향적이며, 이는 더 많은 합성 쌍둥이 자리 출력이 개발에 사용되었을 수 있음을 나타냅니다. 이 관찰은 다양한 AI 개발자들 사이의 복잡한 영향과 기술 이전을 강조합니다.
비용 효율성 및 가용성
DeepSeek-R1-0528의 결정적인 경쟁 우위는 특별한 비용 효율성입니다. 가격 구조는 OpenAI의 가격 구조보다 훨씬 저렴합니다. 입력 토큰은 캐시 히트의 경우 백만 마리의 토큰과 캐시 미스에서 0.55 달러, 출력 토큰은 백만 마리의 토큰 당 $ 2.19입니다. 이에 비해 OpenAi O1은 입력 토큰의 경우 $ 15, 백만 당 출력 토큰의 경우 $ 60을 요구하므로 DeepSeek-R1은 90-95 % 이상 저렴합니다.
Microsoft Azure는 또한 경쟁력있는 가격으로 DeepSeek-R1을 제공합니다. 글로벌 버전은 입력 토큰의 경우 $ 0.00135, 1,000 개의 토큰 당 출력 토큰의 경우 $ 0.0054, 지역 버전의 가격은 약간 더 높습니다. 이 가격은 고품질 솔루션의 높은 비용없이 고품질 AI 기능을 사용하려는 회사 및 개발자에게 모델이 특히 매력적입니다.
공동 라이센스 하의 오픈 소스 모델로서의 가용성은 라이센스 비용없이 상업적 사용 및 수정을 가능하게합니다. 개발자는 모델을 로컬로 운영하거나 다양한 API를 사용할 수 있으며, 이는 구현에 대한 유연성과 제어를 제공합니다. 리소스가 제한된 사용자의 경우 증류 된 80 억 파라미터 버전을 사용할 수 있으며 24GB 메모리로 소비자 하드웨어에서 실행됩니다.
적합:
중국의 AI를 따라 잡기 : DeepSeek의 성공은 무엇을 의미하는지
DeepSeek-R1-0528은 글로벌 AI 개발의 전환점을 표시하고 최고의 서부 시스템과 경쟁하는 수출 제한에도 불구하고 중국 기업이 모델을 개발할 수 있음을 보여줍니다. 이 업데이트는 교육 후 최적화 및 재구성 학습을 효과적으로 사용하는 경우 근본적인 아키텍처 변경이 없으면 상당한 성능 증가가 가능하다는 것을 증명합니다. 최고 성능, 비용 절감 및 오픈 소스 가용성 문제는 AI 업계에서 비즈니스 모델을 확립했습니다.
DeepSeek의 성공에 대한 서양 경쟁사의 반응은 이미 첫 번째 시장 변화를 보여줍니다. Openaai 및 Google의 가격 인하 및 자원 제조 모델 개발. 원래 2025 년 5 월에 계획된 DeepSeek-R2의 예상 출판물로 인해이 경쟁 압력은 더욱 강화 될 수 있습니다. DeepSeek-R1-0528의 성공 사례는 AI의 혁신이 반드시 대규모 투자와 산술 자원이 필요하지는 않지만 영리한 알고리즘과 효율적인 개발 방법을 통해 달성 될 수 있음을 보여줍니다.
적합:
AI 변환, AI 통합 및 AI 플랫폼 산업 전문가
✔️ 우리의 비즈니스 언어는 영어 또는 독일어입니다.
✔️ 새로운 기능: 자국어로 된 통신!
나는 귀하와 우리 팀에 개인 고문으로 봉사하게 되어 기쁘게 생각합니다.
문의 양식을 작성하여 연락하시거나 +49 89 89 674 804 (뮌헨) 로 전화해 주세요 . 내 이메일 주소는: Wolfenstein ∂ xpert.digital
나는 우리의 공동 프로젝트를 기대하고 있습니다.