نُشر في: ٢ أغسطس ٢٠٢٥ / حُدِّث في: ٢ أغسطس ٢٠٢٥ – بقلم: كونراد وولفنشتاين
انسَ ChatGPT: إن ورقة جوجل البحثية لعام 2017 بعنوان "الاهتمام هو كل ما تحتاجه" هي السبب الحقيقي وراء انفجار الذكاء الاصطناعي
ما هو عصر التعلم العميق؟
يشير عصر التعلم العميق إلى الفترة الممتدة منذ عام ٢٠١٠، والتي شهد فيها تطوير الذكاء الاصطناعي تسارعًا هائلًا بفضل العديد من الإنجازات التكنولوجية. ويمثل هذا العصر نقطة تحول في تاريخ الذكاء الاصطناعي، حيث توافرت لأول مرة المتطلبات الأساسية اللازمة لتدريب الشبكات العصبية المعقدة: قوة حوسبة كافية، وكميات هائلة من البيانات، وخوارزميات مُحسّنة.
يشير مصطلح التعلم العميق إلى شبكات عصبية متعددة الطبقات قادرة على استخراج السمات المجردة من البيانات تلقائيًا. وخلافًا للأساليب السابقة، لم تعد هذه الأنظمة بحاجة إلى برمجة يدوية لتحديد السمات التي يجب عليها تمييزها؛ بل تتعلم هذه الأنماط بشكل مستقل عن بيانات التدريب.
مناسب ل:
لماذا بدأت ثورة التعلم العميق في عام 2010؟
كان عام ٢٠١٠ مفصليًا، إذ تضافرت فيه ثلاثة تطورات جوهرية. أولًا، تم إطلاق قاعدة بيانات ImageNet، التي تحتوي على أكثر من ١٠ ملايين صورة مُصنّفة ضمن ألف فئة، مما وفّر، لأول مرة، قاعدة بيانات ضخمة بما يكفي لتدريب الشبكات العصبية العميقة.
ثانيًا، أصبحت وحدات معالجة الرسومات (GPUs) قوية بما يكفي لتمكين المعالجة المتوازية لكميات كبيرة من البيانات. أتاحت منصة CUDA من NVIDIA، التي طُرحت عام ٢٠٠٧، للباحثين إجراء العمليات الحسابية المكثفة اللازمة للتعلم العميق.
ثالثًا، أدت التحسينات الخوارزمية، وخاصةً استخدام دالة تنشيط ReLU بدلًا من دوال سيجمايد التقليدية، إلى تسريع عملية التدريب بشكل ملحوظ. وقد أتاح هذا التقارب أخيرًا تطبيق الأسس النظرية من ثمانينيات القرن العشرين عمليًا.
ما هو الاختراق الذي شكل بداية ثورة التعلم العميق؟
تحقق الإنجاز الحاسم في 30 سبتمبر/أيلول 2012، بفوز AlexNet في مسابقة ImageNet. حققت الشبكة العصبية التلافيفية، التي طورها أليكس كريزفسكي وإيليا سوتسكيفر وجيفري هينتون، معدل خطأ ضمن أفضل خمسة خوارزميات بنسبة 15.3%، متفوقةً بأكثر من 10 نقاط مئوية على الخوارزمية التي حلت في المركز الثاني.
كانت شبكة AlexNet أول من نجح في دمج الشبكات العصبية العميقة ومجموعات البيانات الضخمة وحوسبة وحدة معالجة الرسومات. ومن اللافت للنظر أن التدريب جرى على بطاقتي رسومات NVIDIA فقط في غرفة كريزفسكي. أثبت هذا النجاح للمجتمع العلمي أن التعلم العميق ليس مثيرًا للاهتمام نظريًا فحسب، بل متفوق عمليًا أيضًا.
أدى نجاح AlexNet إلى سلسلة من التطورات. ففي عام ٢٠١٥، تجاوز نموذج SENet معدل التعرف البشري لـ ImageNet، بمعدل خطأ بلغ ٢.٢٥٪. وقد أظهر هذا التحسن الملحوظ في غضون سنوات قليلة الإمكانات الهائلة لتقنية التعلم العميق.
ما هو الدور الذي لعبته هندسة المحولات؟
في عام ٢٠١٧، نشر فريق من جوجل ورقة بحثية رائدة بعنوان "الانتباه هو كل ما تحتاجه"، والتي قدّمت بنية المحول. أحدثت هذه البنية ثورة في معالجة اللغة الطبيعية بالاعتماد كليًا على آليات الانتباه، والتخلص من الحاجة إلى الشبكات العصبية المتكررة.
ما يميز المتحولون هو قدرتهم على معالجة البيانات بالتوازي: فبينما كانت النماذج السابقة تعمل بالتتابع، كلمة بكلمة، تستطيع المتحولون معالجة جمل كاملة في آنٍ واحد. تتيح آلية التركيز الذاتي للنموذج فهم العلاقات بين جميع الكلمات في الجملة، بغض النظر عن موقعها.
أصبحت بنية المحول أساسًا لجميع نماذج اللغات الحديثة واسعة النطاق، من BERT إلى GPT إلى Gemini. استُشهد بالورقة البحثية الأصلية أكثر من 173,000 مرة بحلول عام 2025، وتُعتبر من أكثر الأعمال العلمية تأثيرًا في القرن الحادي والعشرين.
لماذا تعد جوجل رائدة الذكاء الاصطناعي؟
وفقًا لتحليل شركة Epoch AI، تتصدر جوجل هذا المجال بفارق كبير، حيث تمتلك 168 نموذجًا "بارزًا" للذكاء الاصطناعي. ويمكن تفسير هذه الهيمنة بالعديد من القرارات الاستراتيجية التي اتخذتها الشركة في بداية مسيرتها.
استثمرت جوجل بكثافة في أبحاث الذكاء الاصطناعي منذ مطلع الألفية الثانية، وأدركت مبكرًا إمكانات الشبكات العصبية. وأدى استحواذها على ديب مايند عام ٢٠١٤ إلى تعزيز خبراتها. كما كان إصدار إطار عمل TensorFlow مفتوح المصدر عام ٢٠١٥ أمرًا بالغ الأهمية، إذ ساهم في تسريع تطوير الذكاء الاصطناعي عالميًا.
كانت مساهمة جوجل في بنية Transformer بالغة الأهمية. فقد أرست هذه الورقة البحثية، التي نشرها باحثو جوجل عام ٢٠١٧، أسس الذكاء الاصطناعي التوليدي الحالي. وبناءً على ذلك، طورت جوجل نموذج BERT (٢٠١٨)، الذي أحدث ثورة في معالجة اللغة الطبيعية، ثم نماذج Gemini لاحقًا.
كما ساهم التكامل الوثيق بين البحث وتطوير المنتجات في جوجل في تعزيز مكانتها البارزة. تُدمج نماذج الذكاء الاصطناعي مباشرةً في خدمات جوجل، مثل البحث ويوتيوب وأندرويد، مما يُسهم في الاستخدام العملي، وبالتالي يُلبي معايير النماذج "البارزة".
مناسب ل:
- KI و SEO مع تمثيلات تشفير BERT – ثنائية الاتجاه من المحولات – نموذج في مجال معالجة اللغة الطبيعية (NLP)
كيف تطورت مايكروسوفت وOpenAI وMeta؟
تحتل مايكروسوفت المرتبة الثانية بـ 43 نموذجًا بارزًا للذكاء الاصطناعي. استفادت الشركة من شراكتها الاستراتيجية مع OpenAI، التي استثمرت فيها مايكروسوفت مليارات الدولارات. مكّن هذا التعاون مايكروسوفت من دمج نماذج GPT في منتجات مثل Bing وCopilot في وقت مبكر.
تحتل OpenAI المرتبة الثالثة بـ 40 نموذجًا، على الرغم من تأسيسها عام 2015 فقط. وقد أدى تطوير سلسلة GPT، بدءًا من GPT-1 (2018) وصولًا إلى النماذج الحالية مثل GPT-4 وo3، إلى ترسيخ مكانة OpenAI كمطور رائد لنماذج اللغات الكبيرة. ووصل ChatGPT، الذي صدر عام 2022، إلى مليون مستخدم في غضون خمسة أيام، مما ساهم في لفت انتباه الجمهور إلى الذكاء الاصطناعي.
طورت شركة ميتا (فيسبوك) سلسلة LLaMA، المكونة من 35 نموذجًا، كبديل مفتوح المصدر للنماذج المغلقة. وقد أثبتت نماذج LLaMA، وخاصةً LLaMA 3 وLLAMA 4 الأحدث، أن النماذج مفتوحة المصدر قادرة أيضًا على منافسة الحلول الاحتكارية.
مناسب ل:
- اعتبارًا من سبتمبر 2024: نماذج الذكاء الاصطناعي بالأرقام: أفضل 15 نموذجًا لغويًا كبيرًا – 149 نموذجًا أساسيًا / "نماذج أساسية" – 51 نموذجًا للتعلم الآلي
ما الذي يجعل نموذج الذكاء الاصطناعي "جديرًا بالذكر"؟
تُعرّف منظمة Epoch AI نموذج الذكاء الاصطناعي بأنه "جدير بالملاحظة" إذا استوفى معيارًا واحدًا على الأقل من أربعة معايير. أولًا، يجب أن يُحقق تحسينًا تقنيًا مُقارنةً بمعيار مُعترف به. ثانيًا، يجب أن يحقق معدل استشهاد عالٍ يتجاوز 1000 استشهاد. ثالثًا، يُمكن اعتبار الأهمية التاريخية معيارًا، حتى لو كان النموذج قديمًا تقنيًا. رابعًا، يُؤخذ الاستخدام العملي الهام في الاعتبار.
لا يركز هذا التعريف على التقدم التكنولوجي فحسب، بل يركز أيضًا على تأثيره الفعلي وأهميته في البيئة العلمية والاقتصادية. وبالتالي، يُمكن اعتبار نموذج ما جديرًا بالملاحظة إذا وُجد تطبيق عملي واسع النطاق، حتى لو لم يكن بالضرورة الأكثر تقدمًا من الناحية التقنية.
تتضمن قاعدة بيانات Epoch AI أكثر من 2400 نموذج تعلّم آلي من عام 1950 حتى اليوم، مما يجعلها أكبر مجموعة متاحة للعامة من نوعها. تتيح هذه القاعدة الشاملة تحليلًا متعمقًا لتطور الذكاء الاصطناعي على مدى أكثر من 70 عامًا.
كيف تطور الذكاء الاصطناعي قبل عصر التعلم العميق؟
اتسم تاريخ الذكاء الاصطناعي قبل عام ٢٠١٠ بفترات من التفاؤل وخيبة الأمل. وشهدت خمسينيات وستينيات القرن الماضي تفاؤلاً كبيراً، جسّده جهاز "بيرسيبترون" الذي ابتكره فرانك روزنبلات (١٩٥٧). وقد أشعلت هذه الشبكات العصبية المبكرة الآمال في الظهور الوشيك للذكاء الاصطناعي.
بدأ أول شتاء للذكاء الاصطناعي في أوائل سبعينيات القرن الماضي، نتيجةً لكتاب مارفن مينسكي وسيمور بابيرت عن حدود المُدْرِكات الحسية (1969). وأدى تقرير لايتهيل لعام 1973 المُقدَّم إلى البرلمان البريطاني إلى تخفيضاتٍ حادة في تمويل الأبحاث. واستمرت هذه المرحلة حتى حوالي عام 1980، مما أدى إلى تباطؤٍ ملحوظ في أبحاث الذكاء الاصطناعي.
شهدت ثمانينيات القرن العشرين انتعاشًا بفضل أنظمة الخبراء مثل MYCIN، وهو نظام تشخيص طبي. في الوقت نفسه، طوّر جيفري هينتون وديفيد روميلهارت ورونالد ويليامز خوارزمية الانتشار الخلفي عام ١٩٨٦، مما جعل الشبكات العصبية قابلة للتدريب. وطوّر يان ليكون LeNet، وهي شبكة عصبية التفافية مبكرة للتعرف على الكتابة اليدوية، في وقت مبكر من عام ١٩٨٩.
تبع ذلك شتاء الذكاء الاصطناعي الثاني في أواخر ثمانينيات القرن الماضي، حين تبددت التوقعات العالية لأنظمة الخبراء وأجهزة LISP. استمرت هذه المرحلة حتى تسعينيات القرن الماضي، واتسمت بالتشكك في الشبكات العصبية.
ما هي الأسس التكنولوجية التي جعلت التعلم العميق ممكنا؟
ثلاثة إنجازات رئيسية مكنت ثورة التعلم العميق. كان تطوير وحدات معالجة رسوميات قوية أمرًا بالغ الأهمية، إذ مكّنت من المعالجة المتوازية لكميات هائلة من البيانات. في عام ٢٠٠٧، أتاحت منصة CUDA من NVIDIA حوسبة وحدات معالجة الرسوميات للتعلم الآلي.
كان الشرط الأساسي الثاني هو توفر مجموعات بيانات كبيرة وعالية الجودة. كانت ImageNet، التي نشرتها فاي فاي لي عام ٢٠١٠، أول منصة توفر مجموعة بيانات تضم أكثر من ١٠ ملايين صورة مُصنّفة. كان هذا الكم من البيانات ضروريًا لتدريب الشبكات العصبية العميقة بفعالية.
شكّلت التحسينات الخوارزمية الركيزة الثالثة. أدى استخدام دالة تنشيط ReLU بدلاً من الدوال السينية إلى تسريع عملية التدريب بشكل ملحوظ. وساعدت إجراءات التحسين المُحسّنة وتقنيات التنظيم، مثل تقنية التسرب، في حل مشكلة الإفراط في التجهيز.
كيف تطورت تكاليف الحوسبة لتدريب الذكاء الاصطناعي؟
ارتفعت تكلفة تدريب نماذج الذكاء الاصطناعي بشكل كبير. بلغت تكلفة تدريب نموذج Transformer الأصلي 930 دولارًا فقط في عام 2017. وبلغت تكلفة تدريب BERT-Large 3300 دولار في عام 2018، بينما بلغت تكلفة تدريب GPT-3 حوالي 4.3 مليون دولار في عام 2020.
تصل تكاليف النماذج الحديثة إلى مستويات أعلى بكثير: إذ تُقدر تكلفة GPT-4 بنحو 78.4 مليون دولار، بينما قد يكون نموذج Gemini Ultra من جوجل، الذي تبلغ تكلفته حوالي 191.4 مليون دولار، أغلى نموذج مُدرّب حتى الآن. يعكس هذا التوجه تزايد تعقيد النماذج وحجمها.
وفقًا لشركة Epoch AI، تتضاعف قوة الحوسبة اللازمة للتدريب كل خمسة أشهر تقريبًا. يتجاوز هذا التطور قانون مور بكثير، ويُظهر التوسع السريع لأبحاث الذكاء الاصطناعي. في الوقت نفسه، يؤدي إلى تركيز تطوير الذكاء الاصطناعي في أيدي عدد قليل من الشركات التي تمتلك الموارد اللازمة.
مناسب ل:
- التحليل الشامل للمناظر الطبيعية العالمية لمنظمة العفو الدولية: الوضع الحالي للذكاء الاصطناعي (يوليو 2025)
ما هي التحديات التي تواجه تطوير الذكاء الاصطناعي بشكل أكبر؟
يواجه تطوير الذكاء الاصطناعي تحدياتٍ جسيمة. قد تصل نماذج الاستدلال المُحسّنة للاستدلال المنطقي المُعقّد إلى حدودها القصوى بحلول عام ٢٠٢٦. كما أن التكاليف الحسابية الباهظة تُحدّ من دائرة الجهات الفاعلة التي يُمكنها المشاركة في أبحاث الذكاء الاصطناعي المتطورة.
لم تُحل بعدُ المشكلات التقنية، كالهلوسة، حيث تُنتج أنظمة الذكاء الاصطناعي معلوماتٍ مضللة. في الوقت نفسه، تُثار تساؤلاتٌ أخلاقيةٌ حول إمكانية إنتاج محتوىً حقيقيٍّ مُضلِّل، كما يتضح من صورة الذكاء الاصطناعي المنتشرة على نطاقٍ واسع للبابا مرتديًا معطفًا.
يُصبح توافر بيانات التدريب عالية الجودة عائقًا متزايدًا. فقد تم تدريب العديد من النماذج بالفعل باستخدام جزء كبير من بيانات الإنترنت المتاحة، مما يتطلب أساليب جديدة لتوليد البيانات.
كيف يؤثر تطوير الذكاء الاصطناعي على المجتمع؟
تُحدث ثورة التعلم العميق تأثيرًا مجتمعيًا هائلًا بالفعل. تُستخدم أنظمة الذكاء الاصطناعي في مجالات حيوية مثل التشخيص الطبي، والتمويل، والمركبات ذاتية القيادة. وإمكانات التغيير الإيجابي هائلة، بدءًا من تسريع الاكتشافات العلمية وصولًا إلى تخصيص التعليم.
في الوقت نفسه، تظهر مخاطر جديدة. فالقدرة على إنشاء محتوى مزيف واقعي تُهدد سلامة المعلومات. وقد تُعرّض الأتمتة الوظائف للخطر، حيث تتوقع وزارة العمل الاتحادية الألمانية أنه بحلول عام ٢٠٣٥، لن تخلو أي وظيفة من برامج الذكاء الاصطناعي.
يثير تركيز قوة الذكاء الاصطناعي في أيدي عدد قليل من شركات التكنولوجيا تساؤلات حول السيطرة الديمقراطية على هذه التقنية القوية. وقد حذّر خبراء، مثل جيفري هينتون، أحد رواد التعلم العميق، من المخاطر المحتملة لأنظمة الذكاء الاصطناعي المستقبلية.
ابتكر رواد الذكاء الاصطناعي في عصر التعلم العميق تقنيةً قادرةً على إحداث تحول جذري في البشرية. وتُظهر ريادة جوجل في تطوير 168 نموذجًا بارزًا للذكاء الاصطناعي، تليها مايكروسوفت وOpenAI وMeta، تركيزَ قوة الابتكار في أيدي عدد قليل من اللاعبين. لقد أحدثت ثورة التعلم العميق، المستمرة منذ عام 2010، والتي انطلقت باكتشافاتٍ رائدة مثل AlexNet وهندسة Transformer، تحولًا جذريًا في حياتنا اليومية، وستُحدث تحولًا أكبر في المستقبل. ويتمثل التحدي في تسخير هذه التقنية القوية لصالح البشرية مع تقليل مخاطرها إلى أدنى حد.
مناسب ل:
تحول الذكاء الاصطناعي ، وتكامل الذكاء الاصطناعى وخبير صناعة منصة الذكاء الاصطناعى
☑️ لغة العمل لدينا هي الإنجليزية أو الألمانية
☑️ جديد: المراسلات بلغتك الوطنية!
سأكون سعيدًا بخدمتك وفريقي كمستشار شخصي.
يمكنك الاتصال بي عن طريق ملء نموذج الاتصال أو ببساطة اتصل بي على +49 89 89 674 804 (ميونخ) . عنوان بريدي الإلكتروني هو: ولفنشتاين ∂ xpert.digital
إنني أتطلع إلى مشروعنا المشترك.