تم النشر على: 31 مايو 2025 / تحديث من: 31 مايو ، 2025 - المؤلف: Konrad Wolfenstein
Deepseek-R1-0528: تحديث Deepseek يعيد نموذج الذكاء الاصطناعي الصيني على مستوى العين مع قادة الصناعة الغربية-صورة: Xpert.Digital
AI Open Source AI في الحد: Deepseek يؤدي Openai و Google في الظل
من 60 إلى 68: أعيد ديبسيك الصينية إلى الأعلى إلى الأعلى
مع نشر Deepseek-R1-0528 في 28 مايو 2025 ، حققت شركة KI الصينية Deepseek علامة فارقة مهمة أعادت تعريف المشهد العالمي لمنظمة العفو الدولية. يُظهر تحديث نموذج القراءة المفتوح المصدر زيادة في الأداء الدراماتيكي ، ولأول مرة يوضع Deepseek في نفس مستوى Openais O3 و Google Gemini 2.5 Pro. تجدر الإشارة بشكل خاص إلى أن هذا الأداء الأعلى يتحقق مع جزء صغير من التكاليف ومع أوزان النموذج المفتوحة تمامًا ، مما يثير أسئلة أساسية حول مستقبل أنظمة الذكاء الاصطناعي. يصنف التحليل الاصطناعي منصة التصنيف المستقل النموذج الجديد برصيد 68 نقطة - وهي قفزة من 60 إلى 68 نقطة تتوافق مع فرق الأداء بين Openaai O1 و O3.
مناسب ل:
التحديث والتحسينات الفنية له
يمثل Deepseek-R1-0528 تطوراً إضافيًا كبيرًا ، والذي لا يتطلب أي تغييرات على الهندسة المعمارية الأساسية ، ولكنه يحقق زيادات كبيرة في ما بعد التدريب من خلال تحسينات الخوارزمية وزيادة استخدام الموارد الحسابية. يركز التحديث بشكل أساسي على تحسين مهارات التفكير ، ووفقًا لـ Deepseek ، يتيح "عمليات التفكير أعمق بكثير". يظهر مثال مثير للإعجاب بشكل خاص على هذا التحسن في اختبار الرياضيات AIME 2025 ، حيث ارتفعت الدقة من 70 في المائة إلى 87.5 في المائة. في الوقت نفسه ، زاد متوسط عدد الرموز الرموز لكل سؤال من 12000 إلى 23000 رمز ، مما يشير إلى عمليات معالجة أكثر كثافة.
بالإضافة إلى تحسينات المنطق ، يقدم التحديث وظائف جديدة مهمة ، بما في ذلك إخراج JSON والطرق الوظيفية ، وواجهة مستخدم محسّنة وهلوسة مخفضة. هذه الابتكارات تجعل النموذج أكثر عملية للمطورين وتوسيع نطاقه بشكل كبير. يظل التوفر دون تغيير: يتلقى مستخدمو API الحاليون التحديث تلقائيًا ، بينما لا تزال أوزان النموذج متوفرة تحت المرخصة المفتوحة على وجه المعانقة.
مقارنات الأداء والمقارن للأداء
تُظهر النتائج القياسية لـ Deepseek-R1-0528 تحسينات رائعة في جميع فئات التقييم. في المهام الرياضية ، ارتفعت قيمة AIME 2024 من 79.8 إلى 91.4 في المائة ، HMMT 2025 من 41.7 إلى 79.4 في المئة و CNMO 2024 من 78.8 إلى 86.9 في المئة. هذه النتائج تضع النموذج كواحد من أقوى أنظمة الذكاء الاصطناعي لحلول المشكلات الرياضية في جميع أنحاء العالم.
مع معايير البرمجة ، يظهر Deepseek-R1-0528 أيضًا تقدمًا كبيرًا. تحسنت LiveCodeBech من 63.5 إلى 73.3 في المئة ، ومسار Polyglot من 53.3 إلى 71.6 في المئة و SWE التحقق من 49.2 إلى 57.6 في المئة. ارتفع تصنيف Codeforces من 1530 إلى 1930 نقطة ، والتي تصنف النموذج في المجموعة العليا من حلول المشكلات الخوارزمية. بالمقارنة مع النماذج المتنافسة ، يصل Deepseek-R1 إلى 49.2 في المائة في SWE تم التحقق منه ، وبالتالي فهو متقدم مباشرة على Openaai O1-1217 مع 48.9 في المائة ، في حين أن Codeforces مع 96.3 نسب المئوية وتصنيف ELO قدره 2029 نقطة قريبة جدًا من Openais.
تؤكد اختبارات المعرفة والمنطق العامة الزيادة الواسعة في الأداء: ارتفعت GPQA-Diamond من 71.5 إلى 81.0 في المائة ، وآخر اختبار للبشرية من 8.5 إلى 17.7 في المائة ، و MMLU-PRO من 84.0 إلى 85.0 في المائة و MMLU-REDUX من 92.9 إلى 93.4 في المائة. فقط مع Openais Simpleqa كان انخفاضًا بسيطًا من 30.1 إلى 27.8 في المائة. توثق هذه التحسينات الشاملة أن Deepseek-R1-0528 ليست تنافسية فقط في المجالات المتخصصة ، ولكن عبر الطيف الكامل للمهام المعرفية.
العمارة الفنية والابتكارات
يعتمد الأساس الفني لـ Deepseek-R1-0528 على بنية Moe (مزيج من الخبراء) المتقدمة للغاية مع 37 مليار معلمة نشطة من ما مجموعه 671 مليار معلمة وطول سياق 128000 رمز. ينفذ النموذج من التعلم المتقدم للمساءلة من أجل تحقيق انعكاس متعدد المراحل ، والقدرة على المجادلة التي تم تصميمها للبشر. تمكن هذه البنية النموذج من إدارة مهام التفكير المعقدة من خلال عمليات التفكير التكراري ، والتي تميز بين النماذج الصوتية التقليدية.
الجانب المبتكر بشكل خاص هو تطوير البديل المقطر ، Deepseek-R1-0528-QWEN3-8B ، والذي تم إنشاؤه عن طريق تقطير أفكار Deepseek-R1-0528 لبعد التدريب من قاعدة QWEN3-8B. يحقق هذا الإصدار الأصغر خدمات مثيرة للإعجاب مع متطلبات موارد أقل بكثير ويمكن تشغيلها على وحدات معالجة الرسومات مع 8-12 جيجابايت VRAM. حقق النموذج أداءً أحدث في اختبار AIME 2024 ضمن نماذج المصادر المفتوحة مع تحسن بنسبة 10 في المائة مقارنة بـ QWEN3-8B والأداء المماثل مثل التفكير QWEN3-235B.
تُظهر منهجية التطوير أن Deepseek تعتمد بشكل متزايد على ما بعد التدريب من خلال التعلم التعزيز ، مما أدى إلى زيادة بنسبة 40 في المائة في استهلاك الرمز المميز في التقييم من 71 إلى 99 مليون رمز. يشير هذا إلى أن النموذج يولد إجابات أطول وأعمق دون تغييرات معمارية أساسية.
موقف السوق والديناميات التنافسية
تنشئ Deepseek-R1-0528 نفسها كمنافس جاد للنماذج الاحتياطية الرائدة لشركات التكنولوجيا الغربية. وفقًا للتحليل الاصطناعي ، فإن النموذج الذي يحمل 68 نقطة على نفس المستوى مثل Gemini 2.5 Pro من Google وأمام نماذج مثل Xais Grok 3 Mini و Metas Llama 4 Maverick و Nvidias Nemotron Ultra. في فئة الكود ، يصل Deepseek-R1-0528 إلى مستوى أقل بقليل من O4-Mini و O3.
كان نشر التحديث تأثير كبير على المشهد العالمي لمنظمة العفو الدولية. بالفعل أدى المنشور الأصلي لـ Deepseek-R1 في يناير 2025 إلى انقطاع أسهم التكنولوجيا خارج الصين وتساءل عن افتراض أن تحجيم الذكاء الاصطناعي يتطلب قوة حوسبة هائلة واستثمارات. كانت الاستجابة من المنافسين الغربيين سريعة: قدمت Google تعريفة وصول مخفضة للجرميني ، بينما خفضت Openai الأسعار وقدمت نموذج O3 Mini الذي يحتاج إلى قوة حوسبة أقل.
ومن المثير للاهتمام ، أن التحليلات على غرار النص من Eqbench تبين أن DeepSeek-R1 موجهة نحو Google أكثر من Openaai ، مما يشير إلى أن مخرجات الجوزاء الاصطناعية قد تكون قد استخدمت في التطوير. تؤكد هذه الملاحظة على التأثيرات المعقدة ونقل التكنولوجيا بين مختلف مطوري الذكاء الاصطناعي.
كفاءة التكلفة وتوافرها
ميزة تنافسية حاسمة من Deepseek-R1-0528 هي كفاءة التكلفة غير العادية. إن هيكل الأسعار أرخص بكثير من هيكل Openai: تكلف الرموز المميزة للمدخلات 0.14 دولار لكل مليون رموز لضربات ذاكرة التخزين المؤقت و 0.55 دولار في ذاكرة التخزين المؤقت ، بينما تكلف الرموز المميزة 2.19 دولار لكل مليون رموز. وبالمقارنة ، يتطلب Openai O1 15 دولارًا لرموز المدخلات و 60 دولارًا لرموز الإخراج لكل مليون ، مما يجعل Deepseek-R1 أكثر من 90-95 في المائة.
تقدم Microsoft Azure أيضًا DeepSeek-R1 مع أسعار تنافسية: تبلغ تكلفة الإصدار العالمي 0.00135 دولارًا لرموز المدخلات و 0.0054 دولار لرموز الإخراج لكل 1000 رمز ، في حين أن النسخة الإقليمية لديها أسعار أعلى قليلاً. يجعل هذا التسعير النموذج جذابًا بشكل خاص للشركات والمطورين الذين يرغبون في استخدام وظائف الذكاء الاصطناعي عالية الجودة دون ارتفاع تكاليف الحلول الخاصة.
يتيح التوافر كنموذج مفتوح المصدر تحت Co-Coense أيضًا الاستخدام التجاري والتعديل دون رسوم ترخيص. يمكن للمطورين تشغيل النموذج محليًا أو استخدام واجهات برمجة التطبيقات المختلفة ، والتي توفر المرونة والتحكم في التنفيذ. بالنسبة للمستخدمين الذين لديهم موارد محدودة ، يتوفر إصدار المعلمة المقطر 8 مليارات ، والذي يعمل على أجهزة المستهلك بذاكرة 24 جيجابايت.
مناسب ل:
الذكاء الاصطناعى الصيني اللحاق بالركب: ماذا يعني نجاح ديبسيك
يمثل Deepseek-R1-0528 نقطة تحول في تطوير الذكاء الاصطناعي العالمي وتوضح أن الشركات الصينية يمكنها تطوير نماذج على الرغم من قيود التصدير الأمريكية التي تتنافس مع أفضل الأنظمة الغربية. يثبت التحديث أن الأداء الكبير يزداد دون تغييرات معمارية أساسية ممكنة إذا تم استخدام التحسينات بعد التدريب وتعلم إعادة التنفيذ بشكل فعال. مجموعة من أعلى الأداء ، والتكاليف المخفضة بشكل كبير وأسئلة توافر المصدر المفتوح أنشأت نماذج أعمال في صناعة الذكاء الاصطناعى.
تُظهر ردود أفعال المنافسين الغربيين على نجاح Deepseek بالفعل تغييرات السوق الأولى: تخفيضات الأسعار في Openaai و Google بالإضافة إلى تطوير نماذج تنقيح الموارد. مع النشر المتوقع لـ Deepseek-R2 ، والذي تم التخطيط له في الأصل في مايو 2025 ، قد يزيد هذا الضغط التنافسي. تُظهر قصة نجاح Deepseek-R1-0528 أن الابتكار في الذكاء الاصطناعي لا يتطلب بالضرورة استثمارات ضخمة وموارد حسابية ، ولكن يمكن تحقيقها من خلال خوارزميات ذكية وطرق التطوير الفعالة.
مناسب ل:
تحول الذكاء الاصطناعي ، وتكامل الذكاء الاصطناعى وخبير صناعة منصة الذكاء الاصطناعى
☑️ لغة العمل لدينا هي الإنجليزية أو الألمانية
☑️ جديد: المراسلات بلغتك الوطنية!
سأكون سعيدًا بخدمتك وفريقي كمستشار شخصي.
يمكنك الاتصال بي عن طريق ملء نموذج الاتصال أو ببساطة اتصل بي على +49 89 89 674 804 (ميونخ) . عنوان بريدي الإلكتروني هو: ولفنشتاين ∂ xpert.digital
إنني أتطلع إلى مشروعنا المشترك.