تم النشر على: 13 فبراير 2025 / تحديث من: 13 فبراير 2025 - المؤلف: Konrad Wolfenstein
أنظمة الذكاء الاصطناعى أنظمة عالية الخطورة وقانون الذكاء الاصطناعى الممارسة في الشركات والسلطات-صورة: xpert.digital
قانون الاتحاد الأوروبي KI: إرشادات جديدة للجنة الاتحاد الأوروبي-ما تحتاج الشركات إلى معرفته الآن
أنظمة الذكاء الاصطناعي والتطبيقات عالية الخطورة وقانون الذكاء الاصطناعى في الشركات والسلطات
نشرت المفوضية الأوروبية مبادئ توجيهية مكثفة في 11 فبراير 2025 للتنفيذ العملي لقانون الاتحاد الأوروبي KI (قانون الذكاء الاصطناعي). تهدف هذه إلى دعم الشركات والسلطات لفهم متطلبات القانون بشكل أفضل وتنفيذها وفقًا لما ذكره. ينصب التركيز بشكل خاص على ممارسات الذكاء الاصطناعى المحظورة ، والأنظمة المعرضة للخطر والتدابير للامتثال للوائح.
جوانب مهمة من المبادئ التوجيهية
ممارسات الذكاء الاصطناعي المحظور
يحظر قانون الذكاء الاصطناعي صراحة بعض تطبيقات الذكاء الاصطناعى المصنفة على أنها محفوفة بالمخاطر غير المقبولة. كانت هذه الحظر ساري المفعول منذ 2 فبراير 2025. وتشمل هذه:
- أنظمة الذكاء الاصطناعى التي تستخدم تقنيات التلاعب أو الخادع
- الأنظمة التي تستخدم نقاط الضعف لبعض الأشخاص أو المجموعات بطريقة مستهدفة
- أنظمة التقييم الاجتماعي (التسجيل الاجتماعي)
- منظمة العفو الدولية للتنبؤ بالأفعال الجنائية المحتملة دون أدلة واضحة
- الكشط غير المنضبط لصور الوجه من الإنترنت لتحديد القياس الحيوي
- أنظمة اكتشاف العاطفة في العمل أو في المؤسسات التعليمية
- أنظمة التعريف في الوقت الفعلي الحيوي في الأماكن العامة (مع استثناءات قليلة لسلطات إنفاذ القانون)
تهدف هذه المحظورات إلى ضمان استخدام تقنيات الذكاء الاصطناعى أخلاقيا ومسؤولية ولا تنتهك الحقوق الأساسية.
التطبيق العملي للمبادئ التوجيهية
تحتوي الإرشادات المكونة من 140 صفحة على لجنة الاتحاد الأوروبي على العديد من دراسات الحالة العملية لتسهيل التصنيف الصحيح لأنظمة الذكاء الاصطناعى الخاصة بهم. على الرغم من أن هذه الإرشادات ليست ملزمة قانونًا ، إلا أنها تعمل كمرجع للسلطات الإشرافية في مراقبة اللوائح وإنفاذها.
معنى للشركات والسلطات
يتعين على الشركات والسلطات التعامل بنشاط مع الإرشادات من أجل:
- للتحقق
- لإجراء التعديلات اللازمة في مرحلة مبكرة
- بناء هياكل الامتثال الداخلية لتجنب العقوبات
يمكن أن يكون للالتزام باللوائح عواقب وخيمة. تتراوح عقوبات ما يصل إلى 35 مليون يورو أو 7 ٪ من دوران الشركة العالمي للشركة ، اعتمادًا على المبلغ أعلى.
الخطوات التالية
قبل تنفيذ الإرشادات بالكامل ، لا يزال يجب ترجمتها إلى جميع لغات مكتب الاتحاد الأوروبي واعتمادها رسميًا. ومع ذلك ، ينبغي للشركات والسلطات اتخاذ تدابير بشكل استباقي للتحضير للتقدم التدريجي لقانون الذكاء الاصطناعي. يتم التخطيط للتطبيق الكامل للقانون في 2 أغسطس 2026.
تصنيف مخاطر أنظمة الذكاء الاصطناعى
يقسم قانون الاتحاد الأوروبي منظمة العفو الدولية أنظمة الذكاء الاصطناعي إلى أربع فئات مخاطر ، كل منها له متطلبات تنظيمية مختلفة:
1. أنظمة الذكاء الاصطناعي غير المقبول للمخاطر
هذه الأنظمة محظورة بالكامل في الاتحاد الأوروبي لأنها تمثل خطرًا كبيرًا على حقوق وحريات المواطنين. الأمثلة هي:
- أنظمة الذكاء الاصطناعي للتقييم الاجتماعي (التسجيل الاجتماعي)
- الذكاء الاصطناعي المتلاعب الذي يؤثر على سلوك المستخدمين دون وعي
- تحديد الوقت الحقيقي في الوقت الفعلي في الأماكن العامة لأغراض إنفاذ القانون (مع استثناءات قليلة)
- أنظمة الذكاء الاصطناعي التي تستخدم نقاط الضعف بسبب العمر أو الإعاقة أو الحالة الاجتماعية والاقتصادية
2. المخاطر العالية - التنظيم الصارم المطلوب
يجب أن تلبي هذه الأنظمة متطلبات صارمة وتخضع للاختبار المطابق قبل وصولها إلى السوق. تشمل:
- منظمة العفو الدولية كمكون أمان في المنتجات الهامة مثل الأجهزة الطبية أو المركبات أو الآلات
- أنظمة الذكاء الاصطناعى المستقلة ذات الآثار على الحقوق الأساسية (مثل فحص الائتمان ، وفحص الطلب ، والملاحقة الجنائية ، والإدارة القضائية)
تنطبق متطلبات واسعة للشفافية وإدارة المخاطر وجودة البيانات والإشراف على الإنسان على هذه التطبيقات.
3. محدودة المخاطر - التزامات الشفافية
يجب أن تبلغ هذه الأنظمة المستخدمين بأنهم يتفاعلون مع الذكاء الاصطناعي. الأمثلة هي:
- روبوتات الدردشة
- Deeppakes المستخدمة لإنشاء أو معالجة محتوى الوسائط
4. الحد الأدنى أو عدم المخاطر - الاستخدام الحر
لا تخضع مثل هذه الأنظمة لالتزامات قانونية خاصة ، ولكن يوصى باستخدام مدونة سلوك طوعية. الأمثلة هي:
- ألعاب الفيديو القائمة على الذكاء الاصطناعي
- مرشح البريد العشوائي
أنظمة ACI عالية الخطورة وتنظيمها
يعرّف قانون الذكاء الاصطناعي أنظمة ACI عالية الخطورة على هذا النحو والتي لها تأثير كبير على السلامة أو الصحة أو الحقوق الأساسية للبشر. يمكن تقسيمها إلى فئتين رئيسيتين:
1. الذكاء الاصطناعى كمكون أمان أو منتج مستقل
يتم تصنيف نظام الذكاء الاصطناعى على أنه خطر كبير إذا كان كذلك:
- يعمل كعنصر أمان لمنتج يندرج تحت لوائح التنسيق في الاتحاد الأوروبي ، أو
- يخضع تقييم المطابقة للمخاطر المحتملة.
أمثلة على هذه المنتجات هي:
- الذكاء الاصطناعي في الأجهزة الطبية (مثل أنظمة التشخيص)
- أنظمة مساعدة القيادة القائمة على الذكاء الاصطناعي
- الذكاء الاصطناعي في الإنتاج الصناعي لتقييم المخاطر وضمان الجودة
2. أنظمة ACI عالية الخطورة المستقلة ذات الصلة الاجتماعية
هذه الأنظمة مدرجة في الملحق الثالث من قانون الذكاء الاصطناعى والاهتمام المجالات الاجتماعية الحرجة مثل:
أ) البنية التحتية الحرجة
- منظمة العفو الدولية للتحكم ومراقبة شبكات الكهرباء أو شبكات المرور
ب) التعليم والتوظيف
- منظمة العفو الدولية للتقييم الآلي للامتحانات
- منظمة العفو الدولية لاختيار المتقدمين أو تقييم الأداء للموظفين
ج) الوصول إلى الفوائد المالية والاجتماعية
- اختبارات الائتمان المدعومة من الذكاء الاصطناعي
- أنظمة تقييم الحق في المطالبة بالفوائد الاجتماعية
د) إنفاذ القانون والقضاء
- منظمة العفو الدولية لتحليل الأدلة ودعم التحقيق
- الأنظمة المستندة إلى الذكاء الاصطناعى لضوابط الحدود وإدارة الهجرة
هـ) تحديد القياس الحيوي
- أنظمة التعريف عن بُعد البيومترية
- أنظمة اكتشاف العاطفة في البيئات الأمنية الحرجة
بالنسبة لجميع تطبيقات KI عالية الخطورة هذه ، يتم تطبيق المتطلبات الصارمة لإدارة المخاطر والشفافية ومعالجة البيانات والوثائق الفنية والمراقبة البشرية.
قانون الذكاء الاصطناعي للاتحاد الأوروبي: كيف تكون الشركات قادرة على الاستعداد للوائح الصارمة الذكاء الاصطناعي
يضع قانون الاتحاد الأوروبي منظمة العفو الدولية إطارًا واضحًا لاستخدام تقنيات الذكاء الاصطناعى ويعلق أهمية خاصة على حماية الحقوق الأساسية. يتعين على الشركات والسلطات التعامل بشكل مكثف مع اللوائح الجديدة وتكييف طلبات الذكاء الاصطناعي وفقًا لذلك لتجنب العقوبات. تنطبق المتطلبات الصارمة ، خاصة بالنسبة للأنظمة عالية الخطورة ، والتي ينبغي دمجها في عمليات التطوير والتنفيذ في مرحلة مبكرة.
تعد المراقبة المستمرة للتشريعات وتدابير الامتثال الاستباقية ضرورية لاستخدام الذكاء الاصطناعي المسؤولة وفي الوقت نفسه تعزيز الابتكارات في الإطار القانوني. ستوضح السنوات القادمة كيف يثبت قانون الذكاء الاصطناعى نفسه في الممارسة العملية والتي قد تكون هناك حاجة إلى مزيد من التعديلات.
مناسب ل:
شريكك العالمي في التسويق وتطوير الأعمال
☑️ لغة العمل لدينا هي الإنجليزية أو الألمانية
☑️ جديد: المراسلات بلغتك الوطنية!
سأكون سعيدًا بخدمتك وفريقي كمستشار شخصي.
يمكنك الاتصال بي عن طريق ملء نموذج الاتصال أو ببساطة اتصل بي على +49 89 89 674 804 (ميونخ) . عنوان بريدي الإلكتروني هو: ولفنشتاين ∂ xpert.digital
إنني أتطلع إلى مشروعنا المشترك.