
سيادة البيانات وتقرير المصير وواقع إدارة المنصات المدعومة بالذكاء الاصطناعي - الصورة الإبداعية: Xpert.Digital
قضية إندرمان: كيف يُظهر خطأ غريب في الذكاء الاصطناعي مدى ضعفنا الحقيقي عبر الإنترنت.
### نقرة واحدة، كل شيء يختفي: الفوضى الصامتة لإدارة المنصات التي تعتمد على الذكاء الاصطناعي ### عمل الحياة يدمره الذكاء الاصطناعي: لماذا قد يختفي حسابك على وسائل التواصل الاجتماعي ببساطة غدًا ### الوهم العظيم لسيادة البيانات: كيف تحكمنا الخوارزميات سرًا ### على الرغم من قوانين الاتحاد الأوروبي الجديدة: لماذا لا يزال يُسمح لشركات التكنولوجيا بالحذف بشكل تعسفي ###
خوارزمية القاضي: عندما ينهي الذكاء الاصطناعي حياتك الرقمية - ولا أحد يتحمل المسؤولية
نعيش في زمنٍ لم تعد فيه مصطلحاتٌ مثل "سيادة البيانات" و"تقرير المصير الرقمي" مجرد شعارات سياسية، بل تُجسّد تطلعات مجتمع بأكمله. من خلال قوانين مثل قانون الخدمات الرقمية، تسعى أوروبا إلى بناء حصنٍ منيعٍ ضدّ الإجراءات التعسفية لشركات التكنولوجيا العالمية، وحماية الحقوق الأساسية لمواطنيها في المجال الرقمي. لكن بينما نناقش البنود القانونية واللوائح، يتكشف أمام أعيننا واقعٌ يُسخر من هذه الأهداف النبيلة. واقعٌ يُدمّر فيه الوجود الرقمي للناس بضغطة زر - ليس من قِبل شخص، بل من قِبل خوارزميةٍ مُبهمة.
كل يوم، تُعلّق الحسابات وتُحذف القنوات على منصات مثل يوتيوب وتيك توك وإنستغرام، وهي قنوات بناها المستخدمون بشق الأنفس على مر السنين. يتلاشى عمل حياتهم الرقمية، غالبًا دون مبرر واضح، ودون محاكمة عادلة، ودون وسيلة فعالة للطعن في القرار. ويعزى ذلك بشكل متزايد إلى الإشراف الذي يحركه الذكاء الاصطناعي، وهو عرضة للخطأ وغامض، ومع ذلك يمتلك القدرة المطلقة على الحكم على مدى الرؤية والوجود الرقمي. إن قضية يوتيوبر التكنولوجيا إندرمان، الذي حُذفت قنواته التي تضم مئات الآلاف من المشتركين بناءً على اتصال سخيف يُزعم أنه تم بواسطة الذكاء الاصطناعي، ليست سوى غيض من فيض. يستكشف هذا المقال الهوة العميقة بين رغبتنا في السيطرة والقوة غير المقيدة للخوارزميات، التي أصبحت منذ فترة طويلة قضاة وجلادين في مجالنا العام الرقمي.
أين التناقض بين طموحاتنا وواقعنا؟
نتحدث باستمرار عن سيادة البيانات وتقرير المصير الرقمي. أصبحت هذه المصطلحات سمات مميزة لثقافة واثقة ومستقلة، ثقافة تهدف إلى تصوير تعاملها مع الذكاء الاصطناعي كدليل على نضجها. شرع الاتحاد الأوروبي في حماية مواطنيه من الإجراءات التعسفية لشركات التكنولوجيا العالمية بقوانين مثل قانون الخدمات الرقمية وقانون الأسواق الرقمية. وسُنّت لوائح لتعزيز الشفافية وحماية الحقوق الأساسية. لكن مع كل هذا التراكم التنظيمي، فإننا نتجاهل أمرًا جوهريًا: لم نعالج التهديد الوجودي الذي يتكشف يوميًا أمام أعيننا ويُقوّض مصداقية كل هذه الجهود.
إن الواقع الذي تقدمه لنا منصات التواصل الاجتماعي الرئيسية يوميًا يروي قصة مختلفة تمامًا عن قصة سيادة البيانات وتقرير المصير. يفقد الناس ثروتهم الرقمية يوميًا، دون مبرر أو آليات لمواجهة ذلك. تُحذف قنوات بُنيت بشق الأنفس على مر السنين. ليس بعد مراجعة دقيقة، ولا بعد إجراءات شفافة، ولا بعد إمكانية عقد جلسة استماع عادلة. ببساطة، تُحذف. ويحدث هذا بطريقة لا تليق بالديمقراطية، نظرًا لغياب آليات فعّالة للاستئناف، والمتضررون لا يعرفون حتى سبب إهدار وقتهم وإبداعهم.
ما هي الأمثلة المحددة التي توضح هذا التعسف؟
أحدث وأبرز مثال على ذلك هو حالة يوتيوبر التكنولوجيا إندرمان. أنشأ صانع المحتوى الروسي قناة رئيسية على يوتيوب تضم أكثر من 350 ألف مشترك، حيث تناول مواضيع تقنية. كان محتواه قيّمًا من الناحية الوثائقية، حيث تناول إصدارات قديمة من ويندوز ومشاكل تقنية أخرى. حُذفت هذه القناة دون سابق إنذار. قبل ذلك بوقت قصير، اختفت قناته الثانوية، أندرو، التي تضم أيضًا مئات الآلاف من المشتركين. كان السبب المعلن لهذا الإجراء الجذري غريبًا: ادعى يوتيوب أن قنوات إندرمان مرتبطة بقناة يابانية تلقت إنذارًا ثالثًا بانتهاك حقوق الطبع والنشر. قناة لا يعرفها إندرمان، ولا يتواصل بلغتها، ولا تربطه بها أي صلة.
اللافت في هذه القضية ليس ظلم القرار نفسه فحسب، بل طريقة اتخاذه أيضًا. أشار إندرمان إلى أن نظام ذكاء اصطناعي كان وراءه، بعد أن أنشأ اتصالًا خاطئًا بين قنواته وحساب ياباني مجهول. تبددت آمال صانع المحتوى التقني في يوتيوب بمراجعة شكواه من قِبل موظف بشري في يوتيوب. مرت أشهر دون أي رد. يبدو أن إندرمان قد استسلم الآن لحقيقة أن فترة عمله على يوتيوب قد انتهت. أبلغ صانع محتوى آخر عن مشاكل مماثلة في نفس سلسلة التغريدات على تويتر - حُذفت قناته أيضًا بالإشارة إلى القناة اليابانية نفسها. يشير هذا إلى خلل في النظام، وليس حادثة فردية ناتجة عن خطأ بشري، بل إلى عيوب نظام آلي يعمل دون رادع.
يوتيوب ليس حالةً معزولة، فقد أظهرت منصاتٌ عديدة أنماطًا مماثلة. تيك توك، وإنستغرام، وفيسبوك، وغيرها من الخدمات، تحذف المحتوى وتُعلّق الحسابات يوميًا، وغالبًا دون مبرر كافٍ. وقد وثّقت منظمة الشفافية Freiheitsrechte.org أن منصات التواصل الاجتماعي غالبًا ما تُقدّم تفسيراتٍ غير كافية لقراراتها الإشرافية للمتضررين. في بعض الحالات، تُشير التبريرات فقط إلى انتهاكٍ عام لشروط الخدمة، دون توضيح أيّ انتهاكٍ تحديدًا أدّى إلى اتخاذ هذا الإجراء.
هل تلتزم شركات التكنولوجيا بمسؤولياتها الاجتماعية؟
هذه هي النقطة الحاسمة التي نحتاج فيها إلى تصحيح تحيزاتنا المعرفية. من الواضح أن شركات التكنولوجيا الكبرى تستفيد من بياناتنا ونشاطنا الاقتصادي ومجتمعنا. إنها تستخدم إنترنتنا المشترك كأساس لأعمالها. تجني مليارات الدولارات من عائدات الإعلانات الناتجة عن اهتمامنا وبياناتنا الشخصية. في الوقت نفسه، تتحمل هذه الشركات بحكم الواقع مسؤوليات عامة ومجتمعية.
يوتيوب ليس مجرد خدمة تقنية، كمزود استضافة فحسب. لقد أصبح المنصة البنية التحتية للتواصل العام. فهو يحدد مدى الرؤية والوصول والوصول لملايين الأشخاص. وقد رسخ مكانته كبوابة للمعلومات والمعرفة. فيسبوك وإنستغرام متشابهان، فقد أصبحتا مراكز رئيسية للحوار الاجتماعي. بالنسبة للكثيرين، تُعد هذه المنصات المكان الرئيسي للتعبير عن آرائهم، وبناء مجتمعاتهم، ونشر رسائلهم.
لكن بينما تستفيد شركات التكنولوجيا هذه اقتصاديًا من دورها كوسيط للتواصل الاجتماعي، فإنها تتهرب من المسؤوليات المترتبة على هذا الدور. لا يمكن لمنظمة خيرية تُكلّفها الدولة بأداء مهام مقابل أجر أن تُقصي الأصوات المعارضة لمجرد أنها لا تُحبّ شخصًا ما. لا يمكن لهيئة بثّ عامة إسكات الأفراد دون سماع وجهة نظرهم. لا يمكن لمحكمة أن تُدين شخصًا دون منحه فرصة الدفاع عن نفسه.
لكن هذا بالضبط ما يحدث على هذه المنصات يوميًا. يُستبعد الناس دون أي مبرر حقيقي. تُحذف أعمالهم، وتُدمر سبل عيشهم على الإنترنت. ولا يردّ هؤلاء سوى بالإشارة إلى شروط الخدمة، وفي أحسن الأحوال، نظام شكاوى آلي لا يُجدي نفعًا. هذا ليس ظلمًا فحسب، بل يُشكّل خطرًا هيكليًا على مجتمع مفتوح.
🤖🚀 منصة الذكاء الاصطناعي المُدارة: حلول الذكاء الاصطناعي أسرع وأكثر أمانًا وذكاءً مع UNFRAME.AI
ستتعلم هنا كيف يمكن لشركتك تنفيذ حلول الذكاء الاصطناعي المخصصة بسرعة وأمان وبدون حواجز دخول عالية.
منصة الذكاء الاصطناعي المُدارة هي حلك الشامل والمريح للذكاء الاصطناعي. فبدلاً من التعامل مع التقنيات المعقدة والبنية التحتية المكلفة وعمليات التطوير الطويلة، ستحصل على حل جاهز مُصمم خصيصًا لتلبية احتياجاتك من شريك متخصص - غالبًا في غضون أيام قليلة.
الفوائد الرئيسية في لمحة:
⚡ تنفيذ سريع: من الفكرة إلى التطبيق العملي في أيام، لا أشهر. نقدم حلولاً عملية تُحقق قيمة فورية.
🔒 أقصى درجات أمان البيانات: بياناتك الحساسة تبقى معك. نضمن لك معالجة آمنة ومتوافقة مع القوانين دون مشاركة البيانات مع جهات خارجية.
💸 لا مخاطرة مالية: أنت تدفع فقط مقابل النتائج. يتم الاستغناء تمامًا عن الاستثمارات الأولية الكبيرة في الأجهزة أو البرامج أو الموظفين.
🎯 ركّز على عملك الأساسي: ركّز على ما تتقنه. نتولى جميع مراحل التنفيذ الفني، والتشغيل، والصيانة لحلول الذكاء الاصطناعي الخاصة بك.
📈 مواكب للمستقبل وقابل للتطوير: ينمو الذكاء الاصطناعي لديك معك. نضمن لك التحسين المستمر وقابلية التطوير، ونكيف النماذج بمرونة مع المتطلبات الجديدة.
المزيد عنها هنا:
الإشراف الآلي كتهديد للحقوق الأساسية: عندما يقرر الذكاء الاصطناعي الحذف
كيف يساعد استخدام الذكاء الاصطناعي في حل المشكلة؟
هنا، يتفاقم الوضع بشكل كبير. تستخدم شركات التكنولوجيا بشكل متزايد أنظمة آلية لضبط المحتوى واتخاذ القرارات. أنظمة الذكاء الاصطناعي هذه تفتقر إلى الشفافية، ولا تخضع لمراجعة دورية. والأهم من ذلك كله: أنها ترتكب أخطاءً ذات عواقب وخيمة. قضية إندرمان ليست سوى مثال واحد من أمثلة عديدة على كيف تؤدي المراقبة التي يقودها الذكاء الاصطناعي إلى نتائج سخيفة أو ضارة.
تجلى هذا بشكل خاص خلال جائحة كوفيد-19. فعندما تعذر على المراجعين البشريين، حوّلت منصات التواصل الاجتماعي إدارة محتواها بشكل كبير إلى أنظمة آلية. وكانت النتيجة موجة من القرارات الخاطئة. حُذفت مقاطع الفيديو التي لم تخالف الإرشادات، واختفى المحتوى الموثوق. وشعر المستخدمون بالإحباط لعدم قدرة المنصات على الوفاء بوعودها.
إن محدودية إدارة المحتوى القائمة على الذكاء الاصطناعي جوهرية. فالذكاء الاصطناعي لا يعمل بكفاءة إلا عند توفر بيانات تدريب كافية. العديد من المواقف دقيقة ويصعب تصنيفها. عبارة مثل "تناولت معكرونة الليلة" كان لها معنى مزدوج على تيك توك - حرفيًا، تشير إلى استهلاك الطعام، ولكن في سياق ترند، تشير إلى أفكار انتحارية. فشلت خوارزمية تيك توك في استيعاب هذا الفارق الدقيق، بل غذّت الترند.
علاوة على ذلك، فإن معدل الخطأ منهجيّ. أظهرت دراسة أجراها الاتحاد الأوروبي للبث أن روبوتات الدردشة الذكية واجهت مشكلةً جوهريةً واحدةً على الأقل في 45% من جميع إجابات الأسئلة المتعلقة بالأحداث الجارية، وهي مشكلةٌ قد تُضلل القراء. وفي 81% من النتائج، وُجد خطأٌ ما. وهذا ليس استثناءً، بل هو القاعدة.
ومع ذلك، تُستخدم هذه الأنظمة المعتمة والمعرضة للأخطاء لتحديد مصير الحياة الرقمية لملايين الأشخاص. يُحذف فيديو، وتُعطل قناة، وتُزال شركة من المنصة. وقد اتُخذ القرار من قِبل نظام لا يفهمه المستخدمون، ولا يخضع للمساءلة، ويُسمح له باتخاذ قرارات خاطئة دون عقاب.
أين تقع مسؤولية الدولة؟
الدولة لا تغض الطرف فحسب. والأسوأ من ذلك، أن الدولة، التي تملك سلطة تصحيح هذا الوضع، تُمارس البيروقراطية وتُغرق في التفاصيل الدقيقة. صحيح أن هناك قواعد. ينص قانون الخدمات الرقمية للاتحاد الأوروبي على وجوب شفافية المنصات، ويلزم المستخدمين بحق الشكوى، وينص على وجوب إفصاح المنصات الكبرى عن أنظمتها وقراراتها. كل هذا يبدو جيدًا وصحيحًا نظريًا.
مع ذلك، فإن تطبيق هذه القواعد مُشتَّت. تولَّت وكالة الشبكات الفيدرالية في ألمانيا دور منسِّق الخدمات الرقمية، وهي الآن مُكلَّفة بتطبيق هذه القواعد. ولكن، هل تمتلك هذه الوكالة موارد كافية؟ هل لديها صلاحيات كافية؟ هل تستطيع السلطات الوطنية الفردية اتخاذ إجراءات فعلية ضد شركات التكنولوجيا العالمية التي تتهرب من مسؤولياتها من خلال المحامين وممارسة الضغط؟
علاوة على ذلك، هناك مشكلة أعمق. فلفترة طويلة، سمحت الدولة للشركات الخاصة بلعب دور الحارس والقاضي وهيئة المحلفين في آنٍ واحد. هذه الشركات تقرر ما هو الصواب والخطأ من خلال منصاتها. تُصدر الأحكام، وتُنفذ الأحكام، ولا تخضع للمساءلة أمام أحد. هذا ليس مجرد خلل تنظيمي، بل هو فشل جوهري للديمقراطية.
لفترة طويلة، كان الافتراض السائد هو أن الأسواق تُنظّم نفسها بنفسها، وأن المنصات ستتصرف انطلاقًا من السمعة والمصالح الذاتية. وقد ثبت خطأ هذا الافتراض جوهريًا. فالمنصات تُحسّن أداءها من حيث التفاعل وإيرادات الإعلانات، لا من حيث العدالة. فهي تُشغّل أنظمة ذكاء اصطناعي أقل تكلفة من الإشراف البشري، مع أن هذه الأنظمة عرضة للخطأ. وعند حدوث خطأ، يُمكنها إلقاء اللوم على خوارزمية يُفترض أنها اتخذت قرارًا مستقلًا.
ما الذي يتطلبه تغيير هذا الوضع؟
أولاً، يجب توضيح أن المنصات الرئيسية ليست مجرد شركات خاصة لا سلطة للدولة عليها. هذه الشركات تؤدي وظائف عامة، وهي وسيط للخطاب العام. وقد تولت مهمة مجتمعية، لا شك أنها تحقق ربحًا اقتصاديًا، ولكنها مع ذلك تحمل مسؤولية اجتماعية.
هذا يعني وجوب تطبيق المبادئ الأساسية لسيادة القانون على قرارات الاعتدال، وخاصةً التدابير الصارمة كالتعليق أو الحذف. وهذا يعني شفافية تامة بشأن أسباب القرار. ويعني الحق في محاكمة عادلة قبل اتخاذ أي تدابير صارمة. ويعني أيضًا حقًّا حقيقيًّا في الاستئناف، لا نظام شكاوى آليًا غير فعال عمليًا. ويعني أيضًا مراجعة بشرية، لا سيما في القضايا التي تتضمن خوارزميات.
علاوة على ذلك، يجب وضع حدود للمراقبة التي يُحركها الذكاء الاصطناعي. فإذا كان النظام معرّضًا للخطأ ويمكن أن يؤثر على ملايين الأشخاص، فلا بد من إشراك بشري دائمًا. تشير لوائح الاتحاد الأوروبي إلى هذا الاتجاه، لكن إنفاذها غائب. وتجد المنصات باستمرار طرقًا للالتفاف على هذه القواعد أو تقويضها.
هناك حاجة أيضًا إلى تغيير هيكلي في المساءلة. يجب محاسبة المنصات على قرارات أنظمتها. ليس مسؤولية مجازية، بل مسؤولية قانونية. إذا حُذفت قناة ظلمًا، فيجب إلزام المنصة بدفع تعويضات. هذا من شأنه أن يُغير الحوافز. فجأةً، لن يكون استخدام نظام آلي معيب أرخص. فجأةً، سيكون هناك ثمنٌ لإيذاء الناس ظلمًا.
بالنسبة لإندرمان، كان هذا يعني أن يوتيوب لا يستطيع ببساطة حذف قناته لمجرد أن نظام الذكاء الاصطناعي أجرى اتصالاً خاطئًا بحساب ياباني. كان ينبغي إجراء مراجعة، وإتاحة فرصة للرد. ولو لم يُلاحظ الخطأ، لكان من الممكن تحميل يوتيوب المسؤولية.
ماذا سيحدث إذا لم يتم حل هذه المشاكل؟
الجواب مُدمر. إذا سمحنا لأنظمة الذكاء الاصطناعي بالتحكم عشوائيًا في الوجود الرقمي للبشر، فلن تصل الفوضى مع الذكاء الاصطناعي - الفوضى موجودة بالفعل. بل ستزداد سوءًا. فكلما ازدادت ذكاء هذه الأنظمة، قلّ فهمنا لها. وكلما قلّ فهمنا لها، قلّت قدرتنا على التحكم بها.
والأسوأ من ذلك: ستتفاقم المشكلة بشكل كبير. سيزداد استخدام الذكاء الاصطناعي في مراقبة المحتوى. وستصبح الأنظمة أكثر تعقيدًا. قد تنخفض معدلات الأخطاء أو تزداد - لا أحد يعلم على وجه اليقين. لكن المؤكد هو أن ملايين، وقريبًا مليارات، من الناس سيتأثرون بقرارات لا يفهمونها، ولا يستطيعون الاعتراض عليها، ولا تخضع للمساءلة.
وبينما يحدث هذا، تغض الدولة الطرف. تُحدد وكالة الشبكات الفيدرالية مسؤولياتها. ويُسنّ الاتحاد الأوروبي القوانين. لكن تطبيقها فاتر. السلطات تعاني من نقص الموارد. تدفع المنصات غرامات زهيدة لا تُغير ممارساتها حقًا. يستمر الوضع الراهن: شركات التكنولوجيا تُسيطر بلا رادع على المجال العام الرقمي.
اللافت للنظر في هذا الوضع أنه قابل للتجنب. الحلول موجودة. هناك طرق لجعل سيادة البيانات وتقرير المصير الرقمي واقعًا ملموسًا، وليس مجرد أهداف معيارية. ولكن لكي يحدث ذلك، يجب على الدولة أن تتخلى عن لامبالاتها. عليها أن تُدرك أن هذه ليست مجرد مسألة تنظيمية، بل اختلال في توازن القوى. شركات التكنولوجيا تمتلك نفوذًا. عليها تسخيره لصالح المجتمع، وإلا حُرمت منه.
حتى ذلك الحين، تظل قضايا مثل قضية إندرمان دليلاً على خلل في النظام. يفقد الرجل عمل حياته. لا أحد يستطيع مساعدته. والجهاز الذي دمّر عمل حياته لا يزال يعمل دون أي عائق، يراجع قضايا جديدة، ويُصدر أحكامًا جديدة، والدولة تُوثّق كل ذلك في ملفات إدارية بينما يتصاعد الدخان.
نصيحة - التخطيط - التنفيذ
سأكون سعيدًا بالعمل كمستشار شخصي لك.
الاتصال بي تحت Wolfenstein ∂ xpert.digital
اتصل بي تحت +49 89 674 804 (ميونيخ)
تنزيل تقرير اتجاهات الذكاء الاصطناعي للمؤسسات لعام 2025 من Unframe
انقر هنا للتحميل:

