رمز الموقع اكسبرت ديجيتال

خطأ في الحسابات بقيمة 57 مليار دولار - شركة NVIDIA تحذر من بين جميع الشركات: لقد دعمت صناعة الذكاء الاصطناعي الحصان الخطأ

خطأ في الحسابات بقيمة 57 مليار دولار - شركة NVIDIA تحذر من بين جميع الشركات: لقد دعمت صناعة الذكاء الاصطناعي الحصان الخطأ

خطأ في الحسابات بقيمة 57 مليار دولار - تحذر شركة NVIDIA من بين جميع الشركات: لقد دعمت صناعة الذكاء الاصطناعي الحصان الخطأ - الصورة: Xpert.Digital

انسَ عمالقة الذكاء الاصطناعي: لماذا المستقبل صغير ولا مركزي وأرخص بكثير

### نماذج اللغة الصغيرة: مفتاح الاستقلال الحقيقي للأعمال ### من الشركات العملاقة إلى المستخدمين: تحول القوة في عالم الذكاء الاصطناعي ### خطأ بقيمة 57 مليار دولار: لماذا لا تحدث ثورة الذكاء الاصطناعي الحقيقية في السحابة ### ثورة الذكاء الاصطناعي الصامتة: اللامركزية بدلاً من المركزية ### شركات التكنولوجيا العملاقة على المسار الخطأ: مستقبل الذكاء الاصطناعي هو Lean ومحلي ### من الشركات العملاقة إلى المستخدمين: تحول القوة في عالم الذكاء الاصطناعي ###

مليارات الدولارات من الاستثمارات المهدرة: لماذا تتفوق نماذج الذكاء الاصطناعي الصغيرة على النماذج الكبيرة؟

يواجه عالم الذكاء الاصطناعي زلزالًا يُذكرنا بتصحيحات عصر الإنترنت. يكمن في قلب هذه الاضطراب خطأٌ فادح في الحسابات: فبينما تستثمر شركات التكنولوجيا العملاقة مثل مايكروسوفت وجوجل وميتا مئات المليارات في بنى تحتية مركزية لنماذج اللغات الضخمة (نماذج اللغات الكبيرة، LLMs)، فإن السوق الفعلية لتطبيقاتها تعاني من تأخرٍ كبير. وقد بيّن تحليلٌ رائد، أجرته شركة إنفيديا الرائدة في هذا المجال، أن الفجوة تبلغ 57 مليار دولار في استثمارات البنية التحتية مقارنةً بسوقٍ حقيقية تبلغ 5.6 مليار دولار فقط - أي فارقٌ يبلغ عشرة أضعاف.

ينبع هذا الخطأ الاستراتيجي من افتراض أن مستقبل الذكاء الاصطناعي يكمن حصريًا في نماذج أكبر حجمًا وأكثر كثافة حسابية وتحكمًا مركزيًا. لكن هذا النموذج ينهار الآن. ثورة هادئة، مدفوعة بنماذج لغوية لامركزية وأصغر (نماذج لغوية صغيرة، SLMs)، تقلب النظام القائم رأسًا على عقب. هذه النماذج ليست أرخص بكثير وأكثر كفاءة فحسب، بل إنها تُمكّن الشركات أيضًا من تحقيق مستويات جديدة من الاستقلالية وسيادة البيانات والمرونة - بعيدًا كل البعد عن الاعتماد المكلف على عدد قليل من الشركات فائقة التوسيع. يحلل هذا النص تشريح هذا الاستثمار الخاطئ بمليارات الدولارات ويوضح سبب حدوث ثورة الذكاء الاصطناعي الحقيقية ليس في مراكز البيانات العملاقة، ولكن بشكل لامركزي وعلى أجهزة ضئيلة. إنها قصة تحول جذري في القوة من مزودي البنية التحتية إلى مستخدمي التكنولوجيا.

مناسب ل:

بحث NVIDIA حول سوء تخصيص رأس مال الذكاء الاصطناعي

البيانات التي وصفتها تأتي من ورقة بحثية لشركة NVIDIA نُشرت في يونيو 2025. المصدر الكامل هو:

"نماذج اللغة الصغيرة هي مستقبل الذكاء الاصطناعي الوكيل"

  • المؤلفون: بيتر بيلجاك، جريج هاينريش، شيزهي دياو، يونغغان فو، شين دونغ، سوراف موراليداران، ينغيان سيلين لين، بافلو مولتشانوف
  • تاريخ الإصدار: 2 يونيو 2025 (الإصدار 1)، آخر مراجعة 15 سبتمبر 2025 (الإصدار 2)
  • موقع النشر: arXiv:2506.02153 [cs.AI]
  • DOI: https://doi.org/10.48550/arXiv.2506.02153
  • الصفحة الرسمية لأبحاث NVIDIA: https://research.nvidia.com/labs/lpr/slm-agents/

الرسالة الرئيسية بشأن سوء تخصيص رأس المال

يوثق البحث تباينًا جوهريًا بين استثمارات البنية التحتية وحجم السوق الفعلي: ففي عام 2024، استثمر القطاع 57 مليار دولار في البنية التحتية السحابية لدعم خدمات واجهات برمجة التطبيقات (API) لنماذج اللغات الكبيرة (LLM)، بينما بلغ حجم السوق الفعلي لهذه الخدمات 5.6 مليار دولار فقط. ويُفسر هذا التباين، الذي يُقدر بعشرة إلى واحد، في الدراسة على أنه مؤشر على سوء تقدير استراتيجي، حيث استثمر القطاع بكثافة في البنية التحتية المركزية للنماذج واسعة النطاق، على الرغم من إمكانية استبدال 40-70% من أحمال عمل نماذج اللغات الكبيرة الحالية بنماذج لغات صغيرة (SLM) أصغر وأكثر تخصصًا بتكلفة أقل بنسبة 1/30.

سياق البحث والتأليف

هذه الدراسة هي ورقة موقف من مجموعة أبحاث كفاءة التعلم العميق في مركز أبحاث NVIDIA. المؤلف الرئيسي، بيتر بيلكاك، باحث في مجال الذكاء الاصطناعي في NVIDIA، يركز على موثوقية وكفاءة الأنظمة القائمة على الوكلاء. تناقش الورقة ثلاثة محاور رئيسية:

SLMs هي

  1. قوية بما فيه الكفاية
  2. مناسب جراحيًا و
  3. ضروري اقتصاديًا

للعديد من حالات الاستخدام في أنظمة الذكاء الاصطناعي الوكيل.

يؤكد الباحثون صراحةً أن الآراء الواردة في هذه الورقة البحثية تعبر عن آراء مؤلفيها، ولا تعكس بالضرورة موقف شركة NVIDIA. تدعو NVIDIA إلى نقاش نقدي وتلتزم بنشر أي مراسلات ذات صلة على الموقع الإلكتروني المرفق.

لماذا تجعل نماذج اللغة الصغيرة اللامركزية البنية التحتية المركزية قديمة؟

يمر الذكاء الاصطناعي بمرحلة تحول، تُذكرنا تداعياتها باضطرابات فقاعة الإنترنت. كشفت ورقة بحثية أجرتها شركة إنفيديا عن سوء توزيع جوهري لرأس المال يُزعزع أسس استراتيجيتها الحالية للذكاء الاصطناعي. فبينما استثمرت صناعة التكنولوجيا 57 مليار دولار في بنية تحتية مركزية لنماذج اللغات واسعة النطاق، لم يتجاوز حجم السوق الفعلي لاستخدامها 5.6 ​​مليار دولار. ولا يُشير هذا التفاوت، الذي يُقدر بعشرة إلى واحد، إلى مبالغة في تقدير الطلب فحسب، بل يكشف أيضًا عن خطأ استراتيجي جوهري فيما يتعلق بمستقبل الذكاء الاصطناعي.

استثمارٌ سيء؟ ملياراتٌ أُنفقت على البنية التحتية للذكاء الاصطناعي - ماذا نفعل بالقدرة الفائضة؟

الأرقام تتحدث عن نفسها. في عام 2024، بلغ الإنفاق العالمي على البنية التحتية للذكاء الاصطناعي ما بين 80 و87 مليار دولار، وفقًا لتحليلات مختلفة، حيث تُشكل مراكز البيانات والمسرّعات الجزء الأكبر منه. أعلنت مايكروسوفت عن استثمارات بقيمة 80 مليار دولار للسنة المالية 2025، ورفعت جوجل توقعاتها إلى ما بين 91 و93 مليار دولار، وتخطط ميتا لاستثمار ما يصل إلى 70 مليار دولار. تُمثل هذه الشركات العملاقة الثلاث وحدها حجم استثمار يزيد عن 240 مليار دولار. ووفقًا لتقديرات ماكينزي، قد يصل إجمالي الإنفاق على البنية التحتية للذكاء الاصطناعي إلى ما بين 3.7 و7.9 تريليون دولار بحلول عام 2030.

في المقابل، يبدو الواقع من ناحية الطلب مُقلقًا. فقد قُدِّر حجم سوق نماذج اللغات الكبيرة للمؤسسات بما يتراوح بين 4 و6.7 مليارات دولار فقط لعام 2024، مع توقعات تتراوح بين 4.8 و8 مليارات دولار لعام 2025. وحتى أكثر التقديرات سخاءً لسوق الذكاء الاصطناعي التوليدي ككل، تتراوح بين 28 و44 مليار دولار لعام 2024. ويتجلى التناقض الجوهري بوضوح: فقد بُنيت البنية التحتية لسوق غير موجود بهذا الشكل والنطاق.

ينبع هذا الاستثمار الخاطئ من افتراضٍ يثبت خطأه بشكل متزايد، وهو أن مستقبل الذكاء الاصطناعي يكمن في نماذج مركزية أكبر حجمًا. اتبعت شركات الحوسبة الضخمة استراتيجية التوسع الهائل، مدفوعةً بقناعةٍ مفادها أن عدد المعاملات وقوة الحوسبة هما العاملان التنافسيان الحاسمان. اعتُبر GPT-3، بـ 175 مليار معامل، إنجازًا كبيرًا في عام 2020، بينما وضع GPT-4، بأكثر من تريليون معامل، معايير جديدة. اتبعت الصناعة هذا المنطق دون وعي، واستثمرت في بنية تحتية مصممة لتلبية احتياجات النماذج الضخمة في معظم حالات الاستخدام.

يُظهر هيكل الاستثمار بوضوح سوء التوزيع. ففي الربع الثاني من عام 2025، اتجه 98% من إجمالي 82 مليار دولار أُنفقت على البنية التحتية للذكاء الاصطناعي إلى الخوادم، مع تخصيص 91.8% منها للأنظمة المُسرّعة بوحدات معالجة الرسومات (GPU) ووحدات معالجة الرسومات (XPU). واستحوذت شركات الحوسبة السحابية الضخمة ومُنشئو الحوسبة السحابية على 86.7% من هذه النفقات، أي ما يُقارب 71 مليار دولار في ربع واحد. وقد تجاهل هذا التركيز على رأس المال في أجهزة عالية التخصص وكثيفة الاستهلاك للطاقة، والمخصصة للتدريب واستنتاج نماذج ضخمة، حقيقةً اقتصاديةً أساسيةً، وهي أن معظم تطبيقات المؤسسات لا تتطلب هذه القدرة.

النموذج ينهار: من المركزية إلى اللامركزية

تُقدّم شركة NVIDIA نفسها، المستفيد الرئيسي من طفرة البنية التحتية الأخيرة، الآن تحليلاً يُشكّك في هذا النموذج. تُشير الأبحاث حول نماذج اللغات الصغيرة كمستقبل للذكاء الاصطناعي القائم على الوكلاء إلى أن النماذج التي تحتوي على أقل من 10 مليارات مُعامل ليست كافية فحسب، بل إنها مُتفوّقة من الناحية التشغيلية في الغالبية العظمى من تطبيقات الذكاء الاصطناعي. وقد كشفت دراسةٌ أُجريت على ثلاثة أنظمة وكلاء كبيرة مفتوحة المصدر أنه يُمكن استبدال ما بين 40% و70% من استدعاءات نماذج اللغات الكبيرة بنماذج صغيرة مُتخصصة دون أي خسارة في الأداء.

تُزعزع هذه النتائج الافتراضات الأساسية لاستراتيجية الاستثمار الحالية. إذا استطاعت MetaGPT استبدال 60% من مكالماتها الخاصة بـ LLM، وOpen Operator بنسبة 40%، وCradle بنسبة 70% بـ SLM، فإن سعة البنية التحتية قد بُنيت لتلبية متطلبات غير موجودة على هذا النطاق. يتغير الوضع الاقتصادي بشكل جذري: فتكلفة تشغيل نموذج اللغة الصغير Llama 3.1B أقل بعشر إلى ثلاثين مرة من نظيره الأكبر، Llama 3.3 405B. ويمكن إجراء الضبط الدقيق في بضع ساعات باستخدام وحدة معالجة الرسومات بدلاً من أسابيع. تعمل العديد من نماذج SLM على أجهزة المستهلك، مما يُلغي تمامًا الاعتماد على السحابة.

التحول الاستراتيجي جوهري. تنتقل السيطرة من مزودي البنية التحتية إلى المشغلين. في حين أن البنية السابقة أجبرت الشركات على الاعتماد على عدد قليل من الشركات الضخمة، فإن اللامركزية من خلال إدارة دورة حياة النظام تُتيح استقلالية جديدة. يمكن تشغيل النماذج محليًا، وتبقى البيانات داخل الشركة، وتُلغى تكاليف واجهات برمجة التطبيقات (API)، ويُكسر احتكار الموردين. هذا ليس مجرد تحول تكنولوجي، بل تحول في سياسات القوة.

كان الرهان السابق على النماذج المركزية واسعة النطاق قائمًا على افتراض تأثيرات التوسع الأسّي. إلا أن البيانات التجريبية تُناقض هذا بشكل متزايد. يحقق نموذج Microsoft Phi-3، بسبعة مليارات مُعامل، أداءً في توليد الشيفرة يُضاهي نماذج ذات 70 مليار مُعامل. ويتفوق نموذج NVIDIA Nemotron Nano 2، بتسعة مليارات مُعامل، على Qwen3-8B في معايير الاستدلال، مُحققًا إنتاجيةً أعلى بستة أضعاف. تزداد كفاءة كل مُعامل مع النماذج الأصغر، بينما غالبًا ما تُفعّل النماذج الكبيرة جزءًا ضئيلًا فقط من مُعاملاتها لمُدخل مُعين، وهو ما يُمثل نقصًا مُتأصلًا في الكفاءة.

التفوق الاقتصادي لنماذج اللغة الصغيرة

يكشف هيكل التكلفة الواقع الاقتصادي بوضوحٍ مُطلق. يُقدَّر تدريب نماذج فئة GPT-4 بأكثر من 100 مليون دولار، مع احتمال أن تبلغ تكلفة Gemini Ultra 191 مليون دولار. حتى الضبط الدقيق للنماذج الكبيرة لمجالات مُحددة قد يُكلف عشرات الآلاف من الدولارات من وقت وحدة معالجة الرسومات. في المقابل، يُمكن تدريب وحدات إدارة دورة الحياة (SLM) وضبطها بدقة مقابل بضعة آلاف فقط، وغالبًا ما يكون ذلك باستخدام وحدة معالجة رسومات واحدة عالية الأداء.

تكشف تكاليف الاستدلال عن فروق أكثر جذرية. تبلغ تكلفة GPT-4 حوالي 0.03 دولار أمريكي لكل 1000 رمز إدخال و0.06 دولار أمريكي لكل 1000 رمز إخراج، بإجمالي 0.09 دولار أمريكي لكل استعلام متوسط. أما Mistral 7B، كمثال على إدارة دورة حياة الخادم (SLM)، فتبلغ تكلفته 0.0001 دولار أمريكي لكل 1000 رمز إدخال و0.0003 دولار أمريكي لكل 1000 رمز إخراج، أو 0.0004 دولار أمريكي لكل استعلام. ويمثل هذا انخفاضًا في التكلفة بمقدار 225 ضعفًا. ومع ملايين الاستعلامات، يُضاف هذا الفرق إلى مبالغ كبيرة تؤثر بشكل مباشر على الربحية.

تكشف التكلفة الإجمالية للملكية عن أبعاد إضافية. تبلغ تكلفة الاستضافة الذاتية لنموذج ذي 7 مليارات معلمة على خوادم مكشوفة مزودة بوحدات معالجة رسومية L40S حوالي 953 دولارًا أمريكيًا شهريًا. أما الضبط الدقيق السحابي باستخدام AWS SageMaker على مثيلات g5.2xlarge، فيكلف 1.32 دولارًا أمريكيًا في الساعة، مع تكاليف تدريب محتملة تبدأ من 13 دولارًا أمريكيًا للنماذج الأصغر. أما نشر الاستدلال على مدار الساعة، فسيكلف حوالي 950 دولارًا أمريكيًا شهريًا. وبالمقارنة مع تكاليف واجهة برمجة التطبيقات (API) للاستخدام المستمر للنماذج الكبيرة، والتي قد تصل بسهولة إلى عشرات الآلاف من الدولارات شهريًا، تتضح الميزة الاقتصادية بشكل واضح.

سرعة التنفيذ عامل اقتصادي غالبًا ما يُستهان به. فبينما قد يستغرق ضبط نموذج لغة كبير أسابيع، تكون نماذج لغة كبيرة جاهزة للاستخدام في غضون ساعات أو بضعة أيام. وتُصبح سرعة الاستجابة للمتطلبات الجديدة، وإضافة قدرات جديدة، أو تكييف السلوكيات ميزة تنافسية. وفي الأسواق سريعة التطور، قد يُمثل هذا الفارق الزمني الفرق بين النجاح والفشل.

تنعكس اقتصاديات الحجم. تقليديًا، كانت اقتصاديات الحجم تُعتبر ميزةً للمطورين ذوي القدرات الهائلة، الذين يحافظون على قدرات هائلة ويوزعونها على العديد من العملاء. ومع ذلك، مع إدارة دورة حياة النظام (SLM)، يمكن حتى للمؤسسات الأصغر حجمًا التوسع بكفاءة نظرًا لانخفاض متطلبات الأجهزة بشكل كبير. يمكن للشركات الناشئة بناء إدارة دورة حياة نظام متخصصة بميزانية محدودة، تتفوق في أدائها على نموذج عام كبير لمهمته المحددة. لقد أصبح تعميم تطوير الذكاء الاصطناعي واقعًا اقتصاديًا.

الأساسيات التقنية للاضطراب

إن الابتكارات التكنولوجية التي تُمكّن نماذج التعلم الذاتي لا تقل أهمية عن آثارها الاقتصادية. وقد أثبت تقطير المعرفة، وهو أسلوب يمتص فيه نموذج طالب أصغر حجمًا معرفة نموذج معلم أكبر حجمًا، فعاليته العالية. نجح DistilBERT في ضغط BERT، واتبع TinyBERT مبادئ مماثلة. تُركز الأساليب الحديثة قدرات النماذج التوليدية الكبيرة مثل GPT-3 على نسخ أصغر بكثير تُظهر أداءً مماثلاً أو أفضل في مهام محددة.

تستخدم هذه العملية كلاً من العلامات الناعمة (توزيعات الاحتمالات) لنموذج المعلم والعلامات الصلبة للبيانات الأصلية. يتيح هذا المزيج للنموذج الأصغر التقاط أنماط دقيقة قد تضيع في أزواج المدخلات والمخرجات البسيطة. وقد أظهرت تقنيات التقطير المتقدمة، مثل التقطير التدريجي، أن النماذج الصغيرة يمكنها تحقيق نتائج أفضل من نماذج LLM حتى مع بيانات تدريب أقل. وهذا يُحدث تغييراً جذرياً في الاقتصاد: فبدلاً من عمليات التدريب المكلفة والطويلة على آلاف وحدات معالجة الرسومات، تكفي عمليات التقطير المُستهدفة.

يُقلل التكميم من دقة التمثيل العددي لأوزان النماذج. فبدلاً من الأعداد العشرية العائمة ذات 32 أو 16 بت، تستخدم النماذج المُكَمَّمة تمثيلات أعداد صحيحة ذات 8 أو حتى 4 بت. تنخفض متطلبات الذاكرة بشكل متناسب، وتزداد سرعة الاستدلال، وينخفض ​​استهلاك الطاقة. تُقلل تقنيات التكميم الحديثة من فقدان الدقة، وغالبًا ما تُبقي الأداء دون تغيير يُذكر. يُتيح هذا النشر على الأجهزة الطرفية والهواتف الذكية والأنظمة المُدمجة، وهو أمرٌ يستحيل تحقيقه باستخدام نماذج كبيرة دقيقة تمامًا.

يزيل التقليم الوصلات والمعلمات الزائدة من الشبكات العصبية. وكما هو الحال في تحرير نص طويل جدًا، يتم تحديد العناصر غير الضرورية وحذفها. يزيل التقليم المنظم الخلايا العصبية أو الطبقات بأكملها، بينما يزيل التقليم غير المنظم الأوزان الفردية. وتُعد بنية الشبكة الناتجة أكثر كفاءة، حيث تتطلب ذاكرة وقوة معالجة أقل، مع الاحتفاظ بقدراتها الأساسية. وبدمجها مع تقنيات الضغط الأخرى، تحقق النماذج المُنقّحة مكاسب مذهلة في الكفاءة.

تُحلّل عملية التحليل منخفض الرتبة مصفوفات الأوزان الكبيرة إلى نواتج مصفوفات أصغر. فبدلاً من مصفوفة واحدة بملايين العناصر، يُخزّن النظام ويُعالج مصفوفتين أصغر بكثير. تبقى العملية الحسابية كما هي تقريبًا، ولكن الجهد الحسابي يُقلّل بشكل كبير. تُعدّ هذه التقنية فعّالة بشكل خاص في هياكل المحولات، حيث تُهيمن آليات الانتباه على عمليات ضرب المصفوفات الكبيرة. ويتيح توفير الذاكرة نوافذ سياقية أكبر أو أحجام دفعات أكبر بنفس ميزانية الأجهزة.

يُظهر دمج هذه التقنيات في أنظمة إدارة دورة الحياة الحديثة، مثل سلسلة Microsoft Phi، وGoogle Gemma، وNVIDIA Nemotron، الإمكانات الكامنة. يتفوق Phi-2، الذي يحتوي على 2.7 مليار مُعامل فقط، على نموذجي Mistral وLlama-2 اللذين يحتويان على 7 و13 مليار مُعامل على التوالي، في معايير الأداء المُجمعة، ويُحقق أداءً أفضل من Llama-2-70B الأكبر حجمًا بـ 25 ضعفًا في مهام الاستدلال متعددة الخطوات. وقد تحقق ذلك من خلال اختيار البيانات بشكل استراتيجي، وتوليد بيانات تركيبية عالية الجودة، وتقنيات توسع مُبتكرة. الرسالة واضحة: لم يعد الحجم مُؤشرًا على القدرة.

ديناميكيات السوق وإمكانات الاستبدال

تدعم النتائج التجريبية من التطبيقات العملية الاعتبارات النظرية. فقد أظهر تحليل NVIDIA لإطار عمل MetaGPT، وهو إطار عمل لتطوير البرمجيات متعدد الوكلاء، أن حوالي 60% من طلبات إدارة دورة حياة البرمجيات (LLM) قابلة للاستبدال. تشمل هذه المهام توليد شيفرة نمطية، وإنشاء وثائق، وإنتاج مُهيكل - وهي جميعها مجالات تعمل فيها أنظمة إدارة دورة حياة البرمجيات المتخصصة بشكل أسرع وأكثر فعالية من حيث التكلفة من النماذج العامة واسعة النطاق.

يُظهر نظام Open Operator، وهو نظام أتمتة سير العمل، بفضل قدرته على استبدال 40% من المهام، أنه حتى في سيناريوهات التنسيق المعقدة، لا تتطلب العديد من المهام الفرعية كامل سعة نماذج LLM. يمكن معالجة تحليل النوايا، والمخرجات القائمة على القوالب، وقرارات التوجيه بكفاءة أكبر باستخدام نماذج صغيرة مُعدّلة بدقة. أما نسبة الـ 60% المتبقية، والتي تتطلب في الواقع تفكيرًا عميقًا أو معرفةً واسعةً بالعالم، فتُبرر استخدام النماذج الكبيرة.

يُظهر نظام Cradle، وهو نظام أتمتة واجهة المستخدم الرسومية، أعلى إمكانات استبدال بنسبة 70%. تُعد تفاعلات واجهة المستخدم المتكررة، وتسلسلات النقر، وإدخالات النماذج مثاليةً لأنظمة إدارة دورة حياة المستخدم. فالمهام مُحددة بدقة، والتنوع محدود، ومتطلبات الفهم السياقي منخفضة. يتفوق النموذج المتخصص المُدرَّب على تفاعلات واجهة المستخدم الرسومية على نظام إدارة دورة حياة المستخدم العام من حيث السرعة والموثوقية والتكلفة.

تتكرر هذه الأنماط في مختلف مجالات التطبيق. تستفيد جميع هذه المهام من إدارة دورة حياة العميل (SLMs) في برامج الدردشة لخدمة العملاء، مثل الأسئلة الشائعة، وتصنيف المستندات، وتحليل المشاعر، والتعرف على الكيانات المسماة، والترجمات البسيطة، واستعلامات قواعد البيانات باللغة الطبيعية. وتشير إحدى الدراسات إلى أنه في عمليات نشر الذكاء الاصطناعي النموذجية في المؤسسات، تندرج 60% إلى 80% من الاستعلامات ضمن فئات تكفيها إدارة دورة حياة العميل. وتُعد آثار ذلك على الطلب على البنية التحتية كبيرة.

يكتسب مفهوم توجيه النموذج أهمية متزايدة. تُحلل الأنظمة الذكية الاستعلامات الواردة وتُوجّهها إلى النموذج المناسب. تُنقل الاستعلامات البسيطة إلى أنظمة إدارة دورة حياة (SLM) منخفضة التكلفة، بينما تُعالج أنظمة إدارة دورة حياة (LLM) عالية الأداء المهام المعقدة. يُحسّن هذا النهج الهجين التوازن بين الجودة والتكلفة. تُشير التطبيقات المبكرة إلى وفورات في التكلفة تصل إلى 75% مع نفس الأداء العام أو حتى أفضل. يُمكن أن يكون منطق التوجيه نفسه نموذجًا صغيرًا لتعلم الآلة، يأخذ في الاعتبار تعقيد الاستعلام وسياقه وتفضيلات المستخدم.

يُسرّع انتشار منصات الضبط الدقيق كخدمة من وتيرة تبنيها. تستطيع الشركات التي تفتقر إلى خبرة عميقة في التعلم الآلي بناء منصات متخصصة لإدارة دورة حياة (SLMs) تدمج بياناتها الخاصة وتفاصيل مجالها. يُقلّص الوقت المُستغرق من أشهر إلى أيام، والتكلفة من مئات الآلاف من الدولارات إلى آلاف الدولارات. تُسهم هذه السهولة في تعميم ابتكارات الذكاء الاصطناعي بشكل جذري، وتُحوّل عملية خلق القيمة من مُزوّدي البنية التحتية إلى مُطوّري التطبيقات.

 

بُعد جديد للتحول الرقمي مع "الذكاء الاصطناعي المُدار" - منصة وحلول B2B | استشارات Xpert

بُعدٌ جديدٌ للتحول الرقمي مع "الذكاء الاصطناعي المُدار" - منصة وحلول B2B | استشارات Xpert - الصورة: Xpert.Digital

ستتعلم هنا كيف يمكن لشركتك تنفيذ حلول الذكاء الاصطناعي المخصصة بسرعة وأمان وبدون حواجز دخول عالية.

منصة الذكاء الاصطناعي المُدارة هي حلك الشامل والمريح للذكاء الاصطناعي. فبدلاً من التعامل مع التقنيات المعقدة والبنية التحتية المكلفة وعمليات التطوير الطويلة، ستحصل على حل جاهز مُصمم خصيصًا لتلبية احتياجاتك من شريك متخصص - غالبًا في غضون أيام قليلة.

الفوائد الرئيسية في لمحة:

⚡ تنفيذ سريع: من الفكرة إلى التطبيق العملي في أيام، لا أشهر. نقدم حلولاً عملية تُحقق قيمة فورية.

🔒 أقصى درجات أمان البيانات: بياناتك الحساسة تبقى معك. نضمن لك معالجة آمنة ومتوافقة مع القوانين دون مشاركة البيانات مع جهات خارجية.

💸 لا مخاطرة مالية: أنت تدفع فقط مقابل النتائج. يتم الاستغناء تمامًا عن الاستثمارات الأولية الكبيرة في الأجهزة أو البرامج أو الموظفين.

🎯 ركّز على عملك الأساسي: ركّز على ما تتقنه. نتولى جميع مراحل التنفيذ الفني، والتشغيل، والصيانة لحلول الذكاء الاصطناعي الخاصة بك.

📈 مواكب للمستقبل وقابل للتطوير: ينمو الذكاء الاصطناعي لديك معك. نضمن لك التحسين المستمر وقابلية التطوير، ونكيف النماذج بمرونة مع المتطلبات الجديدة.

المزيد عنها هنا:

 

كيف يوفر الذكاء الاصطناعي اللامركزي مليارات الدولارات للشركات من التكاليف

التكاليف الخفية للهندسة المعمارية المركزية

إن التركيز على تكاليف الحوسبة المباشرة فقط يُقلل من تقدير التكلفة الإجمالية لبنى إدارة المشاريع المركزية (LLM). تُسبب تبعيات واجهات برمجة التطبيقات (API) عيوبًا هيكلية. فكل طلب يُولّد تكاليف تتناسب مع الاستخدام. بالنسبة للتطبيقات الناجحة التي تضم ملايين المستخدمين، تُصبح رسوم واجهات برمجة التطبيقات (API) عامل التكلفة الرئيسي، مما يُؤدي إلى تآكل هوامش الربح. وتقع الشركات في فخ هيكل تكلفة ينمو بالتناسب مع النجاح، دون تحقيق وفورات الحجم المُقابلة.

يُشكل تقلب أسعار مُزودي واجهات برمجة التطبيقات (API) خطرًا على الأعمال. فزيادات الأسعار، وقيود الحصص، أو تغييرات شروط الخدمة قد تُدمر ربحية التطبيق بين عشية وضحاها. وتُظهر قيود السعة التي أعلن عنها كبار المُزودين مؤخرًا، والتي تُجبر المستخدمين على ترشيد مواردهم، مدى ضعف هذه التبعية. أما أنظمة إدارة دورة حياة التطبيقات (SLM) المُخصصة، فتقضي على هذا الخطر تمامًا.

تتزايد أهمية سيادة البيانات والامتثال لها. تُنشئ اللائحة العامة لحماية البيانات (GDPR) في أوروبا، واللوائح المماثلة عالميًا، ومتطلبات توطين البيانات المتزايدة، أطرًا قانونية معقدة. ينطوي إرسال بيانات الشركات الحساسة إلى واجهات برمجة تطبيقات خارجية قد تعمل في ولايات قضائية أجنبية على مخاطر تنظيمية وقانونية. غالبًا ما تفرض قطاعات الرعاية الصحية والمالية والحكومة متطلبات صارمة تستبعد أو تقيّد بشدة استخدام واجهات برمجة التطبيقات الخارجية. وتُحلّ أنظمة إدارة دورة حياة البيانات (SLM) المحلية هذه المشكلات بشكل جذري.

مخاوف الملكية الفكرية حقيقية. كل طلب يُرسل إلى مزود واجهة برمجة التطبيقات (API) قد يكشف معلومات ملكية. منطق العمل، وتطوير المنتجات، ومعلومات العملاء - كل هذا يمكن نظريًا استخراجه واستخدامه من قِبل المزود. بنود العقد لا توفر حماية كافية من التسريبات العرضية أو الجهات الخبيثة. الحل الآمن الوحيد هو عدم نشر البيانات أبدًا.

تتأثر سرعة الاستجابة والموثوقية بشكل كبير بسبب تبعيات الشبكة. يمر كل طلب من طلبات واجهة برمجة التطبيقات السحابية عبر البنية التحتية للإنترنت، معرضًا لتذبذب الشبكة وفقدان الحزم وأوقات ذهاب وعودة متغيرة. بالنسبة لتطبيقات الوقت الفعلي، مثل الذكاء الاصطناعي التفاعلي أو أنظمة التحكم، فإن هذه التأخيرات غير مقبولة. تستجيب أنظمة إدارة دورة حياة الشبكة المحلية بالمللي ثانية بدلاً من الثواني، بغض النظر عن حالة الشبكة. وقد تحسنت تجربة المستخدم بشكل ملحوظ.

الاعتماد الاستراتيجي على عدد قليل من الشركات العملاقة يُركز القوة ويُسبب مخاطر نظامية. تُهيمن AWS وMicrosoft Azure وGoogle Cloud، وغيرها، على السوق. ويُؤدي انقطاع هذه الخدمات إلى آثار متتالية على آلاف التطبيقات المُعتمدة. ويتلاشى وهم التكرار عندما تُدرك أن معظم الخدمات البديلة تعتمد في النهاية على نفس المجموعة المحدودة من مُقدمي النماذج. تتطلب المرونة الحقيقية تنويعًا في الموارد، بما في ذلك، في أفضل الأحوال، القدرة الداخلية.

مناسب ل:

الحوسبة الحافة كنقطة تحول استراتيجية

يُحدث التقارب بين أنظمة إدارة دورة حياة النظام (SLM) والحوسبة الطرفية تحولاً جذرياً. يُتيح نشر الحوسبة الطرفية الوصول إلى مصادر البيانات - أجهزة استشعار إنترنت الأشياء، والأجهزة المحمولة، ووحدات التحكم الصناعية، والمركبات. ويُسهم ذلك في انخفاض هائل في زمن الوصول: من ثوانٍ إلى ميلي ثانية، ومن المعالجة السحابية ذهاباً وإياباً إلى المعالجة المحلية. وبالنسبة للأنظمة ذاتية التشغيل، والواقع المعزز، والأتمتة الصناعية، والأجهزة الطبية، فإن هذا ليس مرغوباً فيه فحسب، بل ضروري أيضاً.

توفير كبير في عرض النطاق الترددي. فبدلاً من تدفق البيانات المستمر إلى السحابة، حيث تُعالج وتُرسل النتائج، تُعالج محليًا. ولا تُنقل إلا المعلومات المُجمعة ذات الصلة. في السيناريوهات التي تضم آلاف الأجهزة الطرفية، يُقلل هذا من حركة مرور الشبكة بشكل كبير. كما يُقلل تكاليف البنية التحتية، ويُتجنب ازدحام الشبكة، وتزداد الموثوقية.

الخصوصية محمية بطبيعتها. لم تعد البيانات تُنقل من الجهاز. بيانات الكاميرا، والتسجيلات الصوتية، والمعلومات البيومترية، وبيانات الموقع - كل ذلك يُمكن معالجته محليًا دون الحاجة إلى الوصول إلى الخوادم المركزية. هذا يُعالج مخاوف الخصوصية الأساسية التي تُثيرها حلول الذكاء الاصطناعي السحابية. بالنسبة لتطبيقات المستهلكين، يُصبح هذا عاملًا مُميزًا، وبالنسبة للقطاعات الخاضعة للتنظيم، يُصبح متطلبًا أساسيًا.

تتحسن كفاءة الطاقة على عدة أصعدة. تستهلك شرائح الذكاء الاصطناعي الطرفية المتخصصة، المُحسّنة لاستنتاج النماذج الصغيرة، جزءًا ضئيلًا من طاقة وحدات معالجة الرسومات في مراكز البيانات. يُوفر إلغاء نقل البيانات الطاقة في البنية التحتية للشبكة. بالنسبة للأجهزة التي تعمل بالبطاريات، أصبحت هذه الميزة أساسية. يمكن للهواتف الذكية والأجهزة القابلة للارتداء والطائرات بدون طيار وأجهزة استشعار إنترنت الأشياء أداء وظائف الذكاء الاصطناعي دون التأثير بشكل كبير على عمر البطارية.

تُعزز القدرة على العمل دون اتصال بالإنترنت متانة النظام. يعمل الذكاء الاصطناعي الطرفي أيضًا دون اتصال بالإنترنت. ويحافظ على وظائفه في المناطق النائية، والبنى التحتية الحيوية، وفي حالات الكوارث. يُعدّ هذا الاستقلال عن توافر الشبكة أمرًا أساسيًا للعديد من التطبيقات. لا يمكن للمركبات ذاتية القيادة الاعتماد على الاتصال السحابي، ويجب ألا يتعطل الجهاز الطبي بسبب عدم استقرار شبكة Wi-Fi.

تتحول نماذج التكلفة من الإنفاق التشغيلي إلى الإنفاق الرأسمالي. فبدلاً من تكاليف السحابة المستمرة، هناك استثمار لمرة واحدة في أجهزة الحافة. ​​وهذا يُصبح جذابًا اقتصاديًا للتطبيقات طويلة الأمد وكثيفة الاستخدام. تُحسّن التكاليف المتوقعة تخطيط الميزانية وتُقلل المخاطر المالية. وتستعيد الشركات سيطرتها على إنفاقها على البنية التحتية للذكاء الاصطناعي.

تُظهر الأمثلة الإمكانات. يُمكّن NVIDIA ChatRTX استدلال LLM محليًا على وحدات معالجة الرسومات (GPUs) للمستهلكين. تُدمج Apple الذكاء الاصطناعي المُدمج في أجهزة iPhone وiPad، مع تشغيل نماذج أصغر مباشرةً على الجهاز. تُطوّر Qualcomm وحدات معالجة عصبية (NPU) للهواتف الذكية خصيصًا للذكاء الاصطناعي الطرفي. تُستهدف Google Coral ومنصات مُماثلة تطبيقات إنترنت الأشياء والتطبيقات الصناعية. تُظهر ديناميكيات السوق اتجاهًا واضحًا نحو اللامركزية.

هياكل الذكاء الاصطناعي غير المتجانسة كنموذج مستقبلي

لا يكمن المستقبل في اللامركزية المطلقة، بل في البنى الهجينة الذكية. تجمع الأنظمة غير المتجانسة بين إدارة دورة حياة الحافة (SLM) للمهام الروتينية الحساسة لزمن الوصول، وإدارة دورة حياة السحابة (LLM) لتلبية متطلبات التفكير المعقدة. يُعزز هذا التكامل الكفاءة مع الحفاظ على المرونة والقدرة.

تتكون بنية النظام من عدة طبقات. في طبقة الحافة، توفر خوادم إدارة دورة حياة (SLM) عالية التحسين استجابات فورية. ومن المتوقع أن تعالج هذه الخوادم ما بين 60% و80% من الطلبات بشكل مستقل. أما بالنسبة للاستعلامات الغامضة أو المعقدة التي لا تلبي عتبات الثقة المحلية، فيتم التصعيد إلى طبقة الحوسبة الضبابية - وهي خوادم إقليمية ذات نماذج متوسطة المدى. ولا تصل إلى البنية التحتية السحابية المركزية إلا الحالات الصعبة للغاية ذات النماذج الكبيرة متعددة الأغراض.

أصبح توجيه النموذج عنصرًا أساسيًا. تُحلل أجهزة التوجيه القائمة على التعلم الآلي خصائص الطلب: طول النص، ومؤشرات التعقيد، وإشارات النطاق، وسجل المستخدم. بناءً على هذه الخصائص، يُخصص الطلب للنموذج المناسب. تحقق أجهزة التوجيه الحديثة دقة تزيد عن 95% في تقدير التعقيد، وتُحسّن باستمرار بناءً على الأداء الفعلي ومقارنات التكلفة والجودة.

آليات الانتباه المتقاطع في أنظمة التوجيه المتقدمة تُنمذج بوضوح تفاعلات الاستعلامات مع النماذج. هذا يُمكّن من اتخاذ قرارات دقيقة: هل ميسترال-7B كافٍ، أم أن GPT-4 ضروري؟ هل يستطيع Phi-3 التعامل مع هذا، أم أن Claude ضروري؟ إن الطبيعة الدقيقة لهذه القرارات، المُضاعفة عبر ملايين الاستعلامات، تُحقق وفورات كبيرة في التكاليف مع الحفاظ على رضا المستخدم أو تحسينه.

يُعدّ توصيف عبء العمل أمرًا أساسيًا. تتكون أنظمة الذكاء الاصطناعي الوكيل من التنسيق، والاستدلال، واستدعاءات الأدوات، وعمليات الذاكرة، وتوليد المخرجات. لا تتطلب جميع المكونات نفس سعة الحوسبة. غالبًا ما يكون التنسيق واستدعاءات الأدوات قائمين على القواعد أو يتطلبان ذكاءً ضئيلًا - وهو أمر مثالي لأنظمة دورة حياة المستخدم (SLMs). يمكن أن يكون الاستدلال هجينًا: استدلال بسيط على أنظمة دورة حياة المستخدم (SLMs)، واستدلال معقد متعدد الخطوات على أنظمة دورة حياة المستخدم (LLMs). يستخدم توليد مخرجات القوالب أنظمة دورة حياة المستخدم (SLMs)، ويستخدم توليد النصوص الإبداعية أنظمة دورة حياة المستخدم (LLMs).

يُراعي تحسين التكلفة الإجمالية للملكية (TCO) تباين الأجهزة. تُستخدم وحدات معالجة الرسومات H100 المتطورة لأحمال عمل LLM الحرجة، بينما تُستخدم وحدات معالجة الرسومات A100 أو L40S متوسطة المستوى للطرازات متوسطة المدى، بينما تُستخدم شرائح T4 أو المُحسّنة للاستدلال اقتصاديًا لطرازات SLM. يسمح هذا التقسيم الدقيق بمطابقة دقيقة لمتطلبات أعباء العمل مع إمكانيات الأجهزة. تُظهر الدراسات الأولية انخفاضًا بنسبة 40% إلى 60% في التكلفة الإجمالية للملكية مقارنةً بعمليات النشر المتجانسة عالية المستوى.

يتطلب التنسيق حزم برامج متطورة. تُعد أنظمة إدارة المجموعات القائمة على Kubernetes، والمُكمّلة بمُجدولات خاصة بالذكاء الاصطناعي تُدرك خصائص النموذج، أساسية. لا تُراعي موازنة الأحمال الطلبات في الثانية فحسب، بل تُراعي أيضًا أطوال الرموز، ومساحة ذاكرة النموذج، وأهداف زمن الوصول. يستجيب التوسع التلقائي لأنماط الطلب، بتوفير سعة إضافية أو تقليص الحجم خلال فترات انخفاض الاستخدام.

الاستدامة وكفاءة الطاقة

أصبح التأثير البيئي للبنية التحتية للذكاء الاصطناعي قضيةً محورية. فتدريب نموذج لغوي واحد كبير الحجم يستهلك طاقةً تعادل ما تستهلكه بلدة صغيرة في عام واحد. وقد تُغطي مراكز البيانات التي تُشغّل أحمال عمل الذكاء الاصطناعي ما بين 20% و27% من الطلب العالمي على الطاقة في مراكز البيانات بحلول عام 2028. وتشير التوقعات إلى أنه بحلول عام 2030، قد تحتاج مراكز بيانات الذكاء الاصطناعي إلى 8 جيجاواط لعمليات التدريب الفردية. وستكون البصمة الكربونية مُماثلة لبصمة صناعة الطيران.

تتزايد كثافة الطاقة في النماذج الكبيرة بشكل غير متناسب. تضاعف استهلاك طاقة وحدة معالجة الرسومات من 400 إلى أكثر من 1000 واط في ثلاث سنوات. تتطلب أنظمة NVIDIA GB300 NVL72 كميات هائلة من الطاقة، على الرغم من تقنية تخفيف الطاقة المبتكرة التي تقلل من الحمل الأقصى بنسبة 30%. تُضيف البنية التحتية للتبريد ما بين 30% و40% أخرى إلى الطلب على الطاقة. قد يزيد إجمالي انبعاثات ثاني أكسيد الكربون من البنية التحتية للذكاء الاصطناعي بمقدار 220 مليون طن بحلول عام 2030، حتى مع وجود افتراضات متفائلة بشأن إزالة الكربون من الشبكة.

تُحقق نماذج اللغات الصغيرة (SLMs) مكاسب جوهرية في الكفاءة. يتطلب التدريب ما بين 30% و40% من قوة الحوسبة لنماذج اللغات الصغيرة المماثلة. تبلغ تكلفة تدريب BERT حوالي 10,000 يورو، مقارنةً بمئات الملايين لنماذج فئة GPT-4. طاقة الاستدلال أقل نسبيًا. يستهلك استعلام SLM طاقة أقل بمقدار 100 إلى 1000 مرة من استعلام LLM. على مدار ملايين الاستعلامات، يُحقق هذا توفيرًا هائلًا.

تُعزز الحوسبة الطرفية هذه المزايا. فالمعالجة المحلية تُلغي الطاقة اللازمة لنقل البيانات عبر الشبكات والبنية التحتية الأساسية. وتُحقق شرائح الذكاء الاصطناعي الطرفية المتخصصة كفاءة طاقة أعلى بكثير من وحدات معالجة الرسومات في مراكز البيانات. وتُظهر الهواتف الذكية وأجهزة إنترنت الأشياء المزودة بوحدات معالجة عصبية (NPU) بقدرة ميلي واط، بدلاً من مئات الواط من الخوادم، الفرق في الحجم.

أصبح استخدام الطاقة المتجددة أولوية. تلتزم جوجل بتوفير طاقة خالية من الكربون بنسبة 100% بحلول عام 2030، وتلتزم مايكروسوفت بالانبعاثات الكربونية السلبية. ومع ذلك، يُشكل الحجم الهائل للطلب على الطاقة تحديات. حتى مع وجود مصادر متجددة، لا تزال مسألة سعة الشبكة، والتخزين، وانقطاع التيار الكهربائي قائمة. تُقلل أنظمة إدارة دورة الطاقة (SLMs) الطلب المطلق، مما يجعل الانتقال إلى الذكاء الاصطناعي الأخضر أكثر جدوى.

تُحسّن الحوسبة المُراعية للكربون جدولة أعباء العمل بناءً على كثافة الكربون في الشبكة. تبدأ عمليات التدريب عندما تصل حصة الطاقة المتجددة في الشبكة إلى أقصى حد لها. تُوجَّه طلبات الاستدلال إلى المناطق ذات الطاقة النظيفة. هذه المرونة الزمنية والجغرافية، إلى جانب كفاءة إدارة دورة حياة النظام، يُمكن أن تُقلل انبعاثات ثاني أكسيد الكربون بنسبة 50% إلى 70%.

يزداد المشهد التنظيمي صرامةً. يتضمن قانون الذكاء الاصطناعي للاتحاد الأوروبي تقييماتٍ إلزاميةً للأثر البيئي لبعض أنظمة الذكاء الاصطناعي. وأصبح الإبلاغ عن انبعاثات الكربون معيارًا. وتواجه الشركات ذات البنى التحتية غير الكفؤة والمستهلكة للطاقة مخاطرَ تتعلق بالامتثال وتضرر سمعتها. ويتطور اعتماد إدارة دورة حياة البرمجيات (SLM) والحوسبة الطرفية من مجرد ميزة إلى ضرورة.

الديمقراطية مقابل التركيز

لقد ركزت التطورات السابقة قوة الذكاء الاصطناعي في أيدي عدد قليل من اللاعبين الرئيسيين. وتهيمن الشركات السبع الكبرى - مايكروسوفت، وجوجل، وميتا، وأمازون، وآبل، وإنفيديا، وتيسلا - على السوق. تسيطر هذه الشركات العملاقة على البنية التحتية والنماذج، وبشكل متزايد على سلسلة القيمة بأكملها. يتجاوز إجمالي قيمتها السوقية 15 تريليون دولار، وتمثل ما يقرب من 35% من القيمة السوقية لمؤشر ستاندرد آند بورز 500، وهو خطر تركيز ذو أهمية تاريخية غير مسبوقة.

لهذا التركيز آثارٌ منهجية. فعددٌ قليلٌ من الشركات يضع المعايير، ويُعرّف واجهات برمجة التطبيقات، ويتحكم في الوصول. وتصبح الشركات الصغيرة والدول النامية تابعةً. وتُواجه السيادة الرقمية للدول تحديًا. وتستجيب أوروبا وآسيا وأمريكا اللاتينية باستراتيجياتٍ وطنيةٍ للذكاء الاصطناعي، إلا أن هيمنة الشركات الأمريكية العملاقة لا تزال طاغية.

تُحدث نماذج اللغات الصغيرة (SLMs) واللامركزية تحولاً في هذه الديناميكية. تُتيح نماذج اللغات الصغيرة مفتوحة المصدر، مثل Phi-3 وGemma وMistral وLlama، الوصول إلى أحدث التقنيات في متناول الجميع. يُمكن للجامعات والشركات الناشئة والشركات المتوسطة تطوير تطبيقات تنافسية دون الحاجة إلى موارد الأجهزة فائقة التوسيع. يُقلّص حاجز الابتكار بشكل كبير. يُمكن لفريق صغير إنشاء نموذج لغات صغيرة متخصص يتفوق على جوجل أو مايكروسوفت في مجاله.

تتجه الجدوى الاقتصادية لصالح الشركات الصغيرة. فبينما يتطلب تطوير برامج الماجستير في الحقوق (LLM) ميزانيات بمئات الملايين، فإن برامج إدارة الحقوق (SLM) قابلة للتنفيذ بمبالغ تتراوح بين خمسة وستة أرقام. يتيح تعميم الخدمات السحابية الوصول عند الطلب إلى البنية التحتية للتدريب. كما أن تحسين الخدمات يُلغي التعقيد. ويتراجع عائق دخول مجال ابتكارات الذكاء الاصطناعي من مستوى مرتفع للغاية إلى مستوى يمكن إدارته.

أصبحت سيادة البيانات واقعًا ملموسًا. يمكن للشركات والحكومات استضافة نماذج لا تصل أبدًا إلى خوادم خارجية. وتبقى البيانات الحساسة تحت سيطرتها الخاصة. وتم تبسيط الامتثال للائحة العامة لحماية البيانات (GDPR). وأصبح قانون الذكاء الاصطناعي للاتحاد الأوروبي، الذي يفرض متطلبات صارمة للشفافية والمساءلة، أكثر قابلية للإدارة باستخدام نماذج خاصة بدلًا من واجهات برمجة التطبيقات (APIs) المعزولة.

يتزايد تنوع الابتكار. فبدلاً من الاعتماد على نماذج أحادية شبيهة بـ GPT، تظهر آلاف من نماذج إدارة دورة حياة البرمجيات المتخصصة لمجالات ولغات ومهام محددة. هذا التنوع متين في مواجهة الأخطاء المنهجية، ويزيد من المنافسة، ويُسرّع التقدم. أصبح مشهد الابتكار متعدد المراكز بدلاً من أن يكون هرميًا.

تتضح مخاطر التركيز. فالاعتماد على عدد قليل من مقدمي الخدمات يُنشئ نقاط فشل وحيدة. كما تُعيق انقطاعات خدمات AWS أو Azure الخدمات العالمية. وتُحدث القرارات السياسية التي تتخذها شركات التوسع الهائل، مثل قيود الاستخدام أو الإغلاقات الإقليمية، آثارًا متتالية. وتُقلل اللامركزية من خلال إدارة دورة حياة الخدمة (SLM) هذه المخاطر النظامية بشكل جذري.

إعادة التنظيم الاستراتيجي

بالنسبة للشركات، يستلزم هذا التحليل تعديلات استراتيجية جوهرية. تتغير أولويات الاستثمار من البنية التحتية السحابية المركزية إلى هياكل موزعة غير متجانسة. بدلاً من الاعتماد الكامل على واجهات برمجة تطبيقات الحوسبة السحابية فائقة التوسع، يتمثل الهدف في تحقيق الاستقلالية من خلال إدارة دورة حياة النظام (SLM) الداخلية. يركز تطوير المهارات على ضبط النماذج، ونشر الحافة، والتنسيق الهجين.

يتغير قرار البناء مقابل الشراء. فبينما كان شراء الوصول إلى واجهة برمجة التطبيقات (API) يُعتبر سابقًا خيارًا عقلانيًا، أصبح تطوير أنظمة إدارة دورة حياة متخصصة داخليًا أكثر جاذبية. وتميل التكلفة الإجمالية للملكية على مدى ثلاث إلى خمس سنوات بوضوح إلى النماذج الداخلية. كما تُضيف السيطرة الاستراتيجية، وأمن البيانات، والقدرة على التكيف مزايا نوعية إضافية.

بالنسبة للمستثمرين، يُشير هذا التوزيع الخاطئ إلى توخي الحذر فيما يتعلق بمشاريع البنية التحتية البحتة. قد تواجه صناديق الاستثمار العقاري لمراكز البيانات، ومصنعو وحدات معالجة الرسومات، وشركات التوسيع الفائق فائضًا في الطاقة الإنتاجية وانخفاضًا في الاستخدام إذا لم يتحقق الطلب كما هو متوقع. ويشهد السوق هجرةً للقيمة نحو مزودي تقنية إدارة دورة حياة النظام، ورقائق الذكاء الاصطناعي الطرفية، وبرامج التنسيق، وتطبيقات الذكاء الاصطناعي المتخصصة.

البُعد الجيوسياسي بالغ الأهمية. تستفيد الدول التي تُولي أولويةً للسيادة الوطنية للذكاء الاصطناعي من تحول إدارة الأراضي المستدامة. تستثمر الصين 138 مليار دولار في التكنولوجيا المحلية، وتستثمر أوروبا 200 مليار دولار في InvestAI. ستكون هذه الاستثمارات أكثر فعاليةً عندما لا يكون الحجم المطلق هو العامل الحاسم، بل حلول ذكية وفعّالة ومتخصصة. لقد أصبح عالم الذكاء الاصطناعي متعدد الأقطاب حقيقةً واقعةً.

يتطور الإطار التنظيمي بالتوازي. فحماية البيانات، والمساءلة الخوارزمية، والمعايير البيئية - كلها عوامل تُفضّل أنظمة لامركزية وشفافة وفعالة. والشركات التي تتبنى إدارة دورة حياة النظام (SLM) والحوسبة الطرفية في مرحلة مبكرة تُهيئ نفسها بشكل أفضل للامتثال للأنظمة المستقبلية.

يشهد مشهد المواهب تحولاً ملحوظاً. فبينما كانت الموارد اللازمة لأبحاث ماجستير الحقوق حكراً على جامعات النخبة وشركات التكنولوجيا الرائدة، أصبح بإمكان أي مؤسسة تقريباً الآن تطوير برامج ماجستير الحقوق. ويتم التخفيف من نقص المهارات الذي يعيق 87% من المؤسسات عن توظيف خبراء الذكاء الاصطناعي من خلال تقليل التعقيد وتحسين الأدوات. وتُعزز مكاسب الإنتاجية الناتجة عن التطوير المدعوم بالذكاء الاصطناعي هذا التأثير.

تتغير طريقة قياس عائد الاستثمار في الذكاء الاصطناعي. فبدلاً من التركيز على سعة الحوسبة الخام، أصبحت كفاءة كل مهمة هي المقياس الأساسي. تُبلغ الشركات عن متوسط ​​عائد استثمار بنسبة 5.9% في مبادرات الذكاء الاصطناعي، وهو أقل بكثير من التوقعات. ويكمن السبب غالبًا في استخدام حلول ضخمة ومكلفة لمشكلات بسيطة. ويمكن أن يُحسّن التحول إلى إدارة دورة حياة مُحسّنة للمهام هذا العائد بشكل كبير.

يكشف التحليل عن صناعة تمر بمرحلة تحول. إن هذا الاستثمار الخاطئ البالغ 57 مليار دولار ليس مجرد مبالغة في تقدير الطلب، بل يمثل خطأً استراتيجيًا جوهريًا في تقدير بنية الذكاء الاصطناعي. المستقبل ليس لشركات مركزية عملاقة، بل لأنظمة لامركزية متخصصة وفعالة. نماذج اللغات الصغيرة ليست أقل شأناً من نماذج اللغات الكبيرة، بل هي متفوقة في الغالبية العظمى من تطبيقات العالم الحقيقي. تتفق الحجج الاقتصادية والتقنية والبيئية والاستراتيجية على استنتاج واضح: ثورة الذكاء الاصطناعي ستكون لامركزية.

يُمثل تحول السلطة من المُزودين إلى المُشغّلين، ومن الشركات العملاقة إلى مُطوّري التطبيقات، ومن المركزية إلى التوزيع، مرحلةً جديدةً في تطور الذكاء الاصطناعي. سيُصبح من يُدرك هذا التحول ويتبنّاه مُبكرًا هو الرابح. أما من يتمسّك بالمنطق القديم، فيُخاطر بتحول بنيته التحتية المُكلفة إلى أصولٍ مُهمَلة، تُحلّ محلّها بدائل أكثر مرونةً وكفاءةً. إنّ مبلغ الـ 57 مليار دولار ليس مُهدرًا فحسب، بل يُمثّل بداية النهاية لنموذجٍ عفا عليه الزمن بالفعل.

 

شريكك العالمي في التسويق وتطوير الأعمال

☑️ لغة العمل لدينا هي الإنجليزية أو الألمانية

☑️ جديد: المراسلات بلغتك الوطنية!

 

Konrad Wolfenstein

سأكون سعيدًا بخدمتك وفريقي كمستشار شخصي.

يمكنك الاتصال بي عن طريق ملء نموذج الاتصال أو ببساطة اتصل بي على +49 89 89 674 804 (ميونخ) . عنوان بريدي الإلكتروني هو: ولفنشتاين xpert.digital

إنني أتطلع إلى مشروعنا المشترك.

 

 

☑️ دعم الشركات الصغيرة والمتوسطة في الإستراتيجية والاستشارات والتخطيط والتنفيذ

☑️ إنشاء أو إعادة تنظيم الإستراتيجية الرقمية والرقمنة

☑️ توسيع عمليات البيع الدولية وتحسينها

☑️ منصات التداول العالمية والرقمية B2B

☑️ رائدة تطوير الأعمال / التسويق / العلاقات العامة / المعارض التجارية

 

🎯🎯🎯 استفد من خبرة Xpert.Digital الواسعة والمتنوعة في حزمة خدمات شاملة | تطوير الأعمال، والبحث والتطوير، والمحاكاة الافتراضية، والعلاقات العامة، وتحسين الرؤية الرقمية

استفد من الخبرة الواسعة التي تقدمها Xpert.Digital في حزمة خدمات شاملة | البحث والتطوير، والواقع المعزز، والعلاقات العامة، وتحسين الرؤية الرقمية - الصورة: Xpert.Digital

تتمتع Xpert.Digital بمعرفة متعمقة بمختلف الصناعات. يتيح لنا ذلك تطوير استراتيجيات مصممة خصيصًا لتناسب متطلبات وتحديات قطاع السوق المحدد لديك. ومن خلال التحليل المستمر لاتجاهات السوق ومتابعة تطورات الصناعة، يمكننا التصرف ببصيرة وتقديم حلول مبتكرة. ومن خلال الجمع بين الخبرة والمعرفة، فإننا نولد قيمة مضافة ونمنح عملائنا ميزة تنافسية حاسمة.

المزيد عنها هنا:

الخروج من النسخة المحمولة