公開:2025年5月31日 /更新:2025年5月31日 - 著者: Konrad Wolfenstein
制限のオープンソースAI:DeepseekはOpenaiとGoogleを日陰で実行します
60から68まで:Deepseekは中国のAIを上に戻しました
2025年5月28日にDeepseek-R1-0528の出版により、中国のKiスタートアップDeepseekは、世界のAIランドスケープを再定義した重要なマイルストーンを達成しました。オープンソースの読みモデルの更新は、劇的なパフォーマンスの向上を示しており、初めてOpenais O3やGoogle Gemini 2.5 Proと同じレベルにDeepSeekを位置付けます。このトップパフォーマンスは、コストのほんの一部と完全にオープンなモデルの重みで達成されることは特に注目に値します。これは、独自のAIシステムの将来に関する基本的な疑問を提起します。独立した評価プラットフォーム人工分析では、新しいモデルが68ポイントで分類されます。60から68ポイントへのジャンプは、Openaai O1とO3のパフォーマンスの違いに対応しています。
に適し:
更新とその技術的改善
DeepSeek-R1-0528は、基本的なアーキテクチャに変更を必要としない大幅なさらなる開発を表していますが、アルゴリズムの最適化と算術リソースの使用の増加により、トレーニング後の大幅な増加を達成します。このアップデートは、主に推論スキルの向上に焦点を当てており、DeepSeekによれば、「非常に深い思考プロセス」を可能にします。この改善の特に印象的な例は、AIME 2025数学テストで示されており、精度は70%から87.5%に増加しました。同時に、質問あたりの平均トークン数は12,000トークンから23,000トークンに増加し、これはより集中的な処理プロセスを示しています。
推論の改善に加えて、このアップデートでは、JSON出力や機能ビュー、最適化されたユーザーインターフェイス、幻覚の減少など、重要な新しい機能が導入されています。これらの革新により、モデルは開発者にとってはるかに実用的であり、その範囲を大幅に拡大します。可用性は変更されていません。既存のAPIユーザーは自動的にアップデートを受信しますが、モデルの重みは、ハグする顔のオープンコリセンスの下で引き続き使用できます。
ベンチマークのパフォーマンスとパフォーマンスの比較
DeepSeek-R1-0528のベンチマーク結果は、すべての評価カテゴリにわたって印象的な改善を示しています。数学的タスクでは、AIME 2024値は79.8から91.4%、HMMT 2025は41.7から79.4%、CNMO 2024は78.8〜86.9%に上昇しました。これらの結果は、モデルを世界中の数学的問題ソリューションの最も強力なAIシステムの1つとして位置付けています。
プログラミングベンチマークでは、DeepSeek-R1-0528も大きな進歩を示しています。 LiveCodeBechは63.5〜73.3%に改善し、Aider PolyGlotは53.3から71.6%に、SWEは49.2から57.6%に検証されました。コードフォースの評価は1,530ポイントから1,930ポイントに上昇し、アルゴリズム問題ソルバーのトップグループのモデルを分類します。競合するモデルと比較して、DeepSeek-R1はSWE検証で49.2%に達し、したがってOpenaai O1-1217のすぐ先に48.9%であり、CodeForcesは96.3パーセントで、2029ポイントのELO評価はOpenaisに非常に近いです。
一般的な知識と論理テストは、パフォーマンスの広範な増加を裏付けています。GPQA-ダイヤモンドは71.5から81.0パーセントに上昇し、人類の最後の試験は8.5〜17.7パーセント、MMLU-PROは84.0から85.0パーセント、MMLU-Reduxは92.9から93.4パーセントです。 Openais SimpleQAのみが30.1から27.8%にわずかに減少しました。これらの包括的な改善は、DeepSeek-R1-0528が専門分野で競争力があるだけでなく、認知タスクの全体にわたって競争力があることを文書化しています。
技術的なアーキテクチャと革新
DeepSeek-R1-0528の技術的根拠は、高度に開発されたMOE(専門家の混合)に基づいており、合計6710億パラメーターとコンテキスト長の128,000トークンから370億のアクティブパラメーターを備えています。このモデルは、自己チェック、マルチステージリフレクション、およびそれが人間に合わせて調整されていると主張する能力を達成するために、高度な純粋な学習を実装しています。このアーキテクチャにより、モデルは、従来の音声モデルを区別する反復思考プロセスを通じて複雑な推論タスクを管理できます。
特に革新的な側面は、QWEN3-8BベースのトレーニングのためのDeepSeek-R1-0528の考えを蒸留することによって作成された蒸留型バリアントDeepseek-R1-0528-QWEN3-8Bの開発です。この小さなバージョンは、リソース要件が大幅に低い印象的なサービスを実現し、8〜12 GB VRAMでGPUで実行できます。このモデルは、QWEN3-8Bと比較して10%改善し、QWEN3-235B考えなどの同等のパフォーマンスで、オープンソースモデルでのAIME 2024テストで最先端のパフォーマンスを達成しました。
開発方法は、Deepseekが補強学習を伴うトレーニング後のトレーニングにますます依存していることを示しており、71から9900万のトークンからの評価のトークン消費量が40%増加しました。これは、モデルが基本的なアーキテクチャの変更なしに、より長くより深い答えを生成することを示しています。
市場の位置と競争力のあるダイナミクス
DeepSeek-R1-0528は、西洋のテクノロジー企業の主要な専有モデルの真剣な競争相手としての地位を確立しています。人工分析によると、68ポイントのモデルはGoogleのGemini 2.5 Proと同じレベルにあり、Xais Grok 3 Mini、Metas Llama 4 Maverick、Nvidias Nemotron Ultraなどのモデルの前にあります。コードカテゴリでは、DeepSeek-R1-0528はO4-MINIおよびO3のすぐ下のレベルに達します。
アップデートの公開は、グローバルなAIランドスケープに大きな影響を与えました。すでに2025年1月にDeepSeek-R1の最初の出版物は、中国以外のテクノロジーシェアの侵入をもたらし、AIのスケーリングには膨大なコンピューティングパワーと投資が必要であるという仮定に疑問を呈しました。西洋の競合他社からの対応は迅速でした。GoogleはGeminiの割引アクセス料金を導入しましたが、Openaiは価格を下げ、コンピューティングパワーを必要とするO3 Miniモデルを導入しました。
興味深いことに、Eqbenchのテキストスタイルの分析は、Deepseek-R1がOpenaaiよりもGoogleに向いていることを示しています。この観察結果は、さまざまなAI開発者間の複雑な影響と技術移転を強調しています。
コスト効率と可用性
DeepSeek-R1-0528の決定的な競争上の利点は、その並外れたコスト効率です。価格構造はOpenaiの価格構造よりもかなり安いです。入力トークンは、キャッシュヒットには100万ドルあたり0.14ドル、キャッシュミスで0.55ドルかかりますが、出力トークンは100万トークンあたり2.19ドルです。それに比べて、Openai O1では、入力トークンに15ドル、出力トークンに100万ドルが60ドルで、DeepSeek-R1が90〜95%を超えています。
Microsoft Azureは、競争力のある価格でDeepSeek-R1も提供しています。グローバルバージョンは、入力トークンで0.00135ドル、1,000トークンあたりの出力トークンで0.0054ドルかかりますが、地域バージョンの価格はわずかに高くなっています。この価格設定により、独自のソリューションの高コストなしで高品質のAI機能を使用したい企業や開発者にとって、モデルは特に魅力的です。
Colicenseの下でのオープンソースモデルとしての可用性により、ライセンス料なしで商業用途と変更が可能になります。開発者は、モデルをローカルで操作したり、さまざまなAPIを使用したり、実装を柔軟に制御できます。リソースが限られているユーザーの場合、蒸留された80億パラメーターバージョンが利用可能です。これは、24 GBのメモリで消費者ハードウェアで実行されます。
に適し:
中国のAIが追いつく:Deepseekの成功とはどういう意味ですか
DeepSeek-R1-0528は、グローバルなAI開発の転換点を示し、中国企業が最高の西洋システムと競合する米国の輸出制限にもかかわらずモデルを開発できることを実証しています。この更新により、トレーニング後の最適化と再執行学習が効果的に使用される場合、基本的なアーキテクチャの変化なしに大幅なパフォーマンスが増加することが証明されています。トップパフォーマンス、大幅に削減されたコストの削減、およびオープンソースの可用性の質問の組み合わせにより、AI業界でビジネスモデルが確立されました。
DeepSeekの成功に対する西洋の競合他社の反応は、すでに最初の市場の変化を示しています。OpenaaiとGoogleでの価格削減、およびリソースを救うモデルの開発です。元々2025年5月に計画されていたDeepseek-R2の予想される公開により、この競争圧力はさらに強化される可能性があります。 DeepSeek-R1-0528のサクセスストーリーは、AIの革新には必ずしも大規模な投資や算術リソースが必要ではないが、巧妙なアルゴリズムと効率的な開発方法を通じて達成できることを示しています。
に適し:
AIの変革、AI統合、AIプラットフォーム業界の専門家
☑️ 私たちのビジネス言語は英語またはドイツ語です
☑️ NEW: 母国語での通信!
喜んで個人アドバイザーとしてあなたと私のチームにお役に立ちたいと思っています。
お問い合わせフォームにご記入 +49 89 89 674 804 (ミュンヘン)までお電話ください。私のメールアドレスは: wolfenstein ∂ xpert.digital
私たちの共同プロジェクトを楽しみにしています。