الذكاء الاصطناعي في الصحافة المالية: يحارب بلومبرج مع ملخص الذكاء الاصطناعي المعيب
الإصدار المسبق لـ Xpert
اختيار اللغة 📢
تم نشره على: 6 أبريل 2025 / تحديث من: 6 أبريل 2025 - المؤلف: Konrad Wolfenstein

منظمة العفو الدولية في الصحافة المالية: يحارب بلومبرج مع صورة ملخص الذكاء الاصطناعى الخاطئة: xpert.digital
هل وصلت منظمة العفو الدولية حاليًا في الصحافة؟
هل تنفيذ الذكاء الاصطناعي مناسب للاستخدام اليومي؟ بداية بلومبرج الوعرة مع الملخصات الآلية
يعرض دمج الذكاء الاصطناعي في الصحافة شركات الإعلام التي تحدي تحديات معقدة ، كما تظهر الحالة الحالية لـ Bloomberg. تقوم خدمة التعليم المالي بتجربة ملخصات تم إنشاؤها من الذكاء الاصطناعى لمقالاتها منذ يناير 2025 ، ولكن عليها أن تصحح 36 ملخصًا غير صحيح على الأقل. يوضح هذا الموقف الصعوبات في تنفيذ أنظمة الذكاء الاصطناعي في مجال التحرير ، وخاصة فيما يتعلق بالدقة والموثوقية والثقة في المحتوى الآلي. تلقي الأقسام التالية الضوء على المشكلات المحددة في بلومبرج ، وضعها في سياق تحديات AI العامة ومناقشة الحلول الممكنة للتكامل الناجح من الذكاء الاصطناعي في الصحافة.
مناسب ل:
دخول بلومبرج الإشكالي إلى المحتوى الذي تم إنشاؤه
قابلية اجتماعات الذكاء الاصطناعى
بدأت شركة Bloomberg ، وهي شركة رائدة في العالم للأخبار المالية ، في وضع نقاط الرصاص كملخصات في بداية مقالاته في أوائل عام 2025. منذ هذه المقدمة في 15 يناير ، كان على الشركة تصحيح ما لا يقل عن ثلاث عشرات من هذه الملخصات الآلية ، مما يشير إلى مشاكل كبيرة مع دقة المحتوى الذي تم إنشاؤه من الذكاء الاصطناعى. هذه المشكلات مشكلة خاصة بالنسبة لشركة مثل بلومبرج ، والتي تشتهر بتقاريرها المالية الدقيقة والتي يمكن أن يكون لها معلوماتها في كثير من الأحيان تأثير مباشر على قرارات الاستثمار. إن الحاجة إلى العديد من التصحيحات تقوض الثقة في موثوقية هذه التكنولوجيا الجديدة وتثير تساؤلات حول التنفيذ المبكرة لأنظمة الذكاء الاصطناعى في الصحافة.
حدث خطأ مهم بشكل خاص عندما أبلغ بلومبرج عن Autozölle المخطط له الرئيس ترامب. بينما ذكرت المقالة الفعلية بشكل صحيح أن ترامب قد يعلن عن التعريفات في نفس اليوم ، فإن الملخص الذي تم إنشاؤه من الذكاء الاصطناعى يحتوي على معلومات غير صحيحة حول وقت إجراء الجمارك الأكثر شمولاً. في حالة أخرى ، ادعى ملخص الذكاء الاصطناعى بشكل غير صحيح أن الرئيس ترامب قد فرض بالفعل تعريفة ضد كندا في عام 2024. تُظهر هذه الأخطاء حدود الذكاء الاصطناعي في تفسير الرسائل المعقدة والمخاطر عند نشر المحتوى الآلي غير المعتاد.
بالإضافة إلى التاريخ الخاطئ ، تضمنت الأخطاء أيضًا أرقامًا غير صحيحة وسمات غير صحيحة للإجراءات أو البيانات حول الأشخاص أو المنظمات. تمثل هذه الأنواع من الأخطاء ، التي يشار إليها غالبًا باسم "الهلوسة" ، تحديًا خاصًا لأنظمة الذكاء الاصطناعي ، حيث يمكن أن تبدو معقولة وبالتالي يصعب إدراكها إذا لم يكن هناك مراجعة بشرية شاملة. يؤكد تواتر هذه الأخطاء في Bloomberg على الحاجة إلى عمليات مراجعة قوية وطرح أسئلة حول نضج تقنية الذكاء الاصطناعى المستخدمة.
رد فعل بلومبرج على مشاكل الذكاء الاصطناعي
في بيان رسمي ، أكد بلومبرج أن 99 في المائة من الملخصات التي تم إنشاؤها من الذكاء الاصطناعي ستتوافق مع معايير التحرير. وفقًا لبياناتها الخاصة ، تنشر الشركة آلاف المقالات كل يوم وبالتالي ترى أن معدل الخطأ منخفض نسبيًا. وفقًا لبياناته الخاصة ، يعلق بلومبرج أهمية الشفافية وتصحيح العناصر أو تحديثها إذا لزم الأمر. تم التأكيد أيضًا على أن الصحفيين لديهم سيطرة كاملة على ما إذا كان يتم نشر ملخص تم إنشاؤه من الذكاء الاصطناعى أم لا.
وصف جون ميكليثويت ، رئيس تحرير بلومبرج ، أسباب ملخص الذكاء الاصطناعي في مقال في 10 يناير ، والذي استند إلى محاضرة في مدينة سانت جورج ، جامعة لندن. وأوضح أن العملاء يقدرونهم لأنهم يمكنهم أن يتعرفوا بسرعة على ماهية القصة ، في حين أن الصحفيين أكثر تشككا. واعترف أن المراسلين يخشون من أن القراء لا يستطيعون الاعتماد إلا على الملخصات ولم يعد يقرأ القصة الفعلية. ومع ذلك ، أكد Micklethwait أن قيمة ملخص الذكاء الاصطناعى تعتمد بشكل حصري على جودة التاريخ الأساسي-ولا يزال الناس حاسمين بالنسبة لهم.
وقالت متحدثة باسم بلومبرج لصحيفة نيويورك تايمز إن ردود الفعل على الملخصات كانت إيجابية بشكل عام وأن الشركة استمرت في تحسين التجربة. يشير هذا البيان إلى أن بلومبرج يريد التقاطها على الرغم من مشاكل استخدام استراتيجية استخدام الذكاء الاصطناعي للملخصات ، ولكن مع زيادة التركيز على ضمان الجودة وصقل التكنولوجيا المستخدمة.
الذكاء الاصطناعي في الصحافة: موضوع ذو صلة بالصناعة
تجارب شركات الإعلام الأخرى مع الذكاء الاصطناعى
Bloomberg ليست الشركة الوسائط الوحيدة التي تجرب دمج الذكاء الاصطناعي في عملياتها الصحفية. تحاول العديد من المؤسسات الإخبارية معرفة الطريقة التي يمكنك بها دمج هذه التكنولوجيا الجديدة بشكل أفضل في تقاريرك وعمل التحرير. تستخدم سلسلة صحف Gannett ملخصات مماثلة من الذكاء الاصطناعي لمقالاتك ، وقد طورت The Washington Post أداة تسمى "اسأل المنشور" التي تنشئ إجابات على الأسئلة من العناصر البريدية المنشورة. يوضح هذا التبني الواسع الاهتمام الكبير لصناعة وسائل الإعلام في تقنيات الذكاء الاصطناعي ، على الرغم من المخاطر والتحديات المرتبطة بها.
حدثت مشاكل مع أدوات الذكاء الاصطناعى في شركات الإعلام الأخرى. في بداية شهر مارس ، قامت صحيفة لوس أنجلوس تايمز بإزالة أداة الذكاء الاصطناعى من مقال رأي بعد أن وصفت التكنولوجيا Ku Klux-Klan بأنها شيء آخر غير منظمة عنصرية. يوضح هذا الحادث أن التحديات التي يواجهها بلومبرج ليست معزولة ، ولكنها أعراض لمشاكل أوسع مع دمج الذكاء الاصطناعي في الصحافة. هناك نمط لا تنضج فيه التكنولوجيا بعد بما يكفي للعمل بشكل موثوق دون إشراف بشري ، خاصة مع موضوعات حساسة أو معقدة.
توضح هذه الأمثلة التوتر بين الرغبة في الابتكار والكفاءة من قبل الذكاء الاصطناعي من ناحية والحاجة إلى الحفاظ على المعايير الصحفية والدقة من ناحية أخرى. يتعين على شركات الإعلام القيام بعمل موازنة: فهم يريدون الاستفادة من مزايا الذكاء الاصطناعي دون المخاطرة بثقة قرائهم أو تعرض المبادئ الصحفية الأساسية. تعمل تجارب بلومبرج وغيرها من المنظمات الإخبارية كتعاليم مهمة للصناعة بأكملها حول إمكانيات وحدود الذكاء الاصطناعي في الصحافة.
مناسب ل:
- أحد أسباب التردد في استخدام الذكاء الاصطناعي: 68% من مديري الموارد البشرية يشكون من نقص المعرفة في مجال الذكاء الاصطناعي في الشركات
التحدي الخاص في الصحافة المالية
في القطاع المالي ، حيث يعمل بلومبرج كأحد خدمات الاستخبارات الرائدة ، فإن متطلبات الدقة والموثوقية مرتفعة بشكل خاص. يمكن أن يكون لآثار المعلومات غير الصحيحة عواقب مالية كبيرة هنا ، لأن المستثمرين والخبراء الماليين يتخذون قرارات بناءً على هذه الأخبار. هذه المسؤولية الخاصة تجعل دمج تقنيات الذكاء الاصطناعى في الصحافة المالية تحديًا أكبر من مجالات التقارير الأخرى.
ومن المثير للاهتمام ، أن "Generalist-KI" تجاوز KI الخاص لـ Bloomberg في مجالها ، تحليل FinancialBery. كان لدى بلومبرج ما لا يقل عن 2.5 مليون دولار على الأقل في تطوير الذكاء الاصطناعي المالي الخاص به ، ولكن ليس حتى بعد عام من المقدمة في نهاية مارس 2023 أصبح من الواضح أن نماذج الذكاء الاصطناعى العامة مثل ChatGPT و GPT-4 توفر نتائج أفضل في هذا المجال. يوضح هذا التطور السريع في مجال الذكاء الاصطناعي وصعوبة الشركات لمواكبة الحلول المتخصصة إذا أصبحت النماذج العامة فعالة بشكل متزايد.
🎯🎯🎯 استفد من خبرة Xpert.Digital الواسعة والخماسية في حزمة خدمات شاملة | البحث والتطوير، XR، العلاقات العامة والتسويق عبر محرك البحث
آلة العرض ثلاثية الأبعاد AI وXR: خبرة خمسة أضعاف من Xpert.Digital في حزمة خدمات شاملة، R&D XR، PR وSEM - الصورة: Xpert.Digital
تتمتع Xpert.Digital بمعرفة متعمقة بمختلف الصناعات. يتيح لنا ذلك تطوير استراتيجيات مصممة خصيصًا لتناسب متطلبات وتحديات قطاع السوق المحدد لديك. ومن خلال التحليل المستمر لاتجاهات السوق ومتابعة تطورات الصناعة، يمكننا التصرف ببصيرة وتقديم حلول مبتكرة. ومن خلال الجمع بين الخبرة والمعرفة، فإننا نولد قيمة مضافة ونمنح عملائنا ميزة تنافسية حاسمة.
المزيد عنها هنا:
جودة البيانات ونماذج الذكاء الاصطناعى: عثرة غير مرئية من التكنولوجيا الحديثة
التحديات الأساسية لوكالة الذكاء الاصطناعى
مشكلة الهلوسة في نماذج الذكاء الاصطناعي
أحد أكثر التحديات الأساسية لأنظمة الذكاء الاصطناعى ، والتي أصبحت واضحة أيضًا في ملخصات بلومبرج ، هي مشكلة "الهلوسة"-أي ميل نماذج الذكاء الاصطناعى ، إلى توليد السبر بشكل معقول ، ولكن في الواقع معلومات غير صحيحة. تحدث هذه المشكلة عندما تنشئ أنظمة الذكاء الاصطناعي محتوى يتجاوز المعلومات المقدمة لهم أو إذا أسيء تفسير البيانات. هذه الهلوسة هي مشكلة خاصة في الصحافة ، حيث يكون المؤمنون والدقة ذات أهمية حاسمة.
إن المشكلات التي واجهتها بلومبرج هي بالتحديد مثل هذه الهلوسة: البيانات "التي تم اختراعها" من الذكاء الاصطناعي مثل التاريخ التمهيدي لواجبات ترامب السيارات أو ادعاء بشكل خاطئ أن ترامب كان قد فرض بالفعل تعريفة ضد كندا في عام 2024. ويؤكد هذا النوع من الخطأ حدود تقنية الذكاء الاصطناعي الحالي ، خاصةً عندما يتعلق الأمر بالتفسير الدقيق للمعلومات المعقدة.
يشير الخبراء إلى أن الهلوسة يمكن أن تنجم عن عوامل مختلفة ، من بين أشياء أخرى من خلال طريقة تشفير مطالبات التدريب والنصوص. نماذج اللغة الكبيرة (LLMS) مصطلحات مع عدد من الأرقام ، لذلك ترميزات المتجهات. في حالة الكلمات الغامضة مثل "البنك" (الذي يمكن أن يصف كل من المؤسسة المالية والمقاعد)) ، قد يكون هناك ترميز لكل معنى لتجنب الغموض. كل خطأ في ترميز وفك تشفير التمثيل والنصوص يمكن أن يؤدي إلى الهلانة من الذكاء الاصطناعي.
الشفافية وفهم قرارات الذكاء الاصطناعي
هناك مشكلة أساسية أخرى في أنظمة الذكاء الاصطناعى وهي عدم وجود شفافية وقابلية للتتبع لعمليات صنع القرار الخاصة بك. مع بعض أساليب الذكاء الاصطناعى ، لم يعد من المفهوم كيفية حدوث تنبؤ معين أو نتيجة معينة أو لماذا وصل نظام الذكاء الاصطناعي إلى إجابة محددة في حالة وجود سؤال محدد. هذا النقص في الشفافية ، الذي يشار إليه غالبًا باسم "مشكلة الصندوق الأسود" ، يجعل من الصعب تحديد الأخطاء وتصحيحها قبل نشرها.
تعتبر التتبع مهمة بشكل خاص في مجالات مثل الصحافة ، حيث يجب أن تكون القرارات المتعلقة بالمحتوى شفافة ومبررة. إذا لم تتمكن بلومبرج وشركات الإعلام الأخرى عن سبب قيام الذكاء الاصطناعي بتوليد ملخصات غير صحيحة ، فسيكون من الصعب إجراء تحسينات منهجية. بدلاً من ذلك ، يعتمدون على التصحيحات التفاعلية بعد حدوث أخطاء بالفعل.
تم تحديد هذا التحدي أيضًا من قبل خبراء من الأعمال والعلوم. على الرغم من أنه يمثل تحديًا تقنيًا في المقام الأول ، إلا أنه يمكن أن يؤدي أيضًا إلى نتائج إشكالية من منظور اجتماعي أو قانوني في مجالات معينة من التطبيق. في حالة بلومبرج ، قد يؤدي ذلك إلى فقدان الثقة بين القراء أو في أسوأ الحالات إلى القرارات المالية بناءً على معلومات غير صحيحة.
الاعتماد على جودة البيانات ونطاقه
بالإضافة إلى ذلك ، تعتمد التطبيقات المستندة إلى الذكاء الاصطناعي على جودة البيانات والخوارزميات. وبهذه الطريقة ، لا يمكن التعرف على الأخطاء المنهجية في البيانات أو الخوارزميات في ضوء حجم البيانات المستخدمة وتعقيدها. هذا تحد أساسي آخر يتعين على بلومبرج والشركات الأخرى التعامل معه عند تنفيذ أنظمة الذكاء الاصطناعى.
المشكلة في كمية البيانات - لا يمكن أن تأخذ الذكاء الاصطناعى إلا أن "نوافذ السياق" الصغيرة نسبيًا في معالجة الأوامر ، والمطالبة ، تقلصت حقًا في السنوات الأخيرة ، لكنها لا تزال تشكل تحديًا. يمكن لـ Google KI Model "Gemini 1.5 Pro 1M" بالفعل معالجة واحدة على الفور في مدى 700000 كلمة أو ساعة من الفيديو أكثر من 7 مرات بقدر أفضل طراز GPT من Openaai. ومع ذلك ، تبين الاختبارات أن الذكاء الاصطناعي يمكن أن يبحث عن البيانات ، ولكن لديه صعوبة في جمع العلاقات.
مناسب ل:
- يعد تخفيض التكاليف وتحسين الكفاءة مبادئًا مهيمنة للمخاطر-المخاطر واختيار نموذج الذكاء الاصطناعي الصحيح
مقاربات الحل والتطورات المستقبلية
عمليات المراقبة البشرية والتحرير
هناك حل واضح للمشاكل التي تعاني منها Bloomberg وهي زيادة المراقبة البشرية للمحتوى الذي تم إنشاؤه من الذكاء الاصطناعي. أكد بلومبرج بالفعل أن الصحفيين لديهم سيطرة كاملة على ما إذا كان تم نشر ملخص تم إنشاؤه من الذكاء الاصطناعى أم لا. ومع ذلك ، يجب ممارسة هذا التحكم بشكل فعال ، مما يعني أن المحررين يجب أن يكون لديهم وقت كافٍ للتحقق من قمة AI قبل نشرها.
يعد تنفيذ العمليات التحريرية القوية للتحقق من المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي أمرًا بالغ الأهمية لتقليل الأخطاء. يمكن أن يشمل ذلك أنه يجب فحص جميع بقشات القمم من الذكاء الاصطناعي بواسطة محرر بشري واحد على الأقل قبل نشرها أو أن أنواعًا معينة من المعلومات (مثل البيانات أو الأرقام أو الصفات) يتم فحصها بشكل خاص. تزيد هذه العمليات من عبء العمل وبالتالي تقليل جزء من مكاسب الكفاءة من قبل الذكاء الاصطناعي ، ولكنها ضرورية لحماية الدقة والمصداقية.
التحسينات الفنية في نماذج الذكاء الاصطناعي
يعد التطوير الفني لنماذج الذكاء الاصطناعى نفسها نهجًا مهمًا آخر لحل المشكلات الحالية. بالفعل مع GPT-4 ، انخفضت الهلوسة بشكل كبير مقارنة مع سلف GPT-3.5. أحدث نموذج من الأنثروبور ، "Claude 3 Opus" ، يُظهر عددًا أقل من الهلوسة في الاختبارات الأولية. قريبا يجب أن يكون معدل الخطأ في النماذج الصوتية أقل من معدل الرجل العادي. ومع ذلك ، من المحتمل ألا تكون نماذج لغة AI خالية من العيوب حتى إشعار آخر ، على عكس أجهزة الكمبيوتر.
النهج التقني الواعد هو "مزيج من الخبراء": ترتبط العديد من النماذج الخاصة الصغيرة بشبكة بوابة. يتم تحليل الدخول إلى النظام بواسطة البوابة ثم نقله إلى واحد أو أكثر من خبير إذا لزم الأمر. في النهاية ، يتم الجمع بين الإجابات على الكلمة العامة. وبهذه الطريقة ، يمكن تجنب أن يكون النموذج بأكمله نشطًا دائمًا في تعقيده. يمكن أن يحسن هذا النوع من الهندسة المعمارية الدقة باستخدام نماذج متخصصة لأنواع معينة من المعلومات أو المجالات.
توقعات واقعية وتواصل شفاف
بعد كل شيء ، من المهم أن يكون لديك توقعات واقعية لأنظمة الذكاء الاصطناعى والتواصل بشفافية عبر مهاراتهم وحدودهم. يتم تعريف أنظمة الذكاء الاصطناعى على وجه التحديد لسياق تطبيق معين اليوم وهي بعيدة عن أن تكون قابلة للمقارنة مع الذكاء البشري. يجب أن تؤدي هذه المعرفة إلى تنفيذ الذكاء الاصطناعي في الصحافة وغيرها من المجالات.
يجب على Bloomberg وشركات الإعلام الأخرى التواصل بشفافية حول استخدامها لمنظمة العفو الدولية وتوضيح أن المحتوى الذي تم إنشاؤه من الذكاء الاصطناعى يمكن أن يكون غير صحيح. يمكن القيام بذلك عن طريق وضع العلامات الصريحة لمحتوى AI الذي تم إنشاؤه وعمليات تصحيح الأخطاء الشفافة والاتصال المفتوح عبر حدود التكنولوجيا المستخدمة. يمكن أن تساعد هذه الشفافية في الحفاظ على ثقة القارئ ، حتى في حالة حدوث أخطاء.
لماذا يفشل تكامل الذكاء الاصطناعي في الصحافة بدون الناس
توضح تجارب بلومبرج مع منظمة العفو الدولية التي أنشأتها الملخصات التحديات المعقدة في دمج الذكاء الاصطناعي في الصحافة. يظهر 36 خطأ على الأقل كان يجب تصحيحه منذ يناير أنه على الرغم من إمكاناتها ، فإن التكنولوجيا لم تنضج بعد بما يكفي لاستخدامها بشكل موثوق دون مراقبة بشرية شاملة. إن المشكلات التي يواجهها بلومبرج ليست فريدة من نوعها ، ولكنها تعكس التحديات الأساسية لمنظمة العفو الدولية ، مثل الهلوسة ، ونقص الشفافية والاعتماد على البيانات عالية الجودة.
هناك حاجة إلى العديد من الأساليب من أجل تكامل ناجح من الذكاء الاصطناعى في الصحافة: عمليات تحريرية قوية لمراجعة المحتوى الذي تم إنشاؤه من الذكاء الاصطناعي والتحسينات الفنية المستمرة في نماذج الذكاء الاصطناعى نفسها والتواصل الشفاف حول مهارات وحدود التكنولوجيا المستخدمة. يمكن أن تكون تجربة بلومبرج بمثابة درس قيّم لشركات الإعلام الأخرى التي تخطط لتطبيقات AI مماثلة.
يعتمد مستقبل الصحافة المستندة إلى الذكاء الاصطناعى على مدى جودة مكاسب الكفاءة والإمكانيات المبتكرة لمنظمة العفو الدولية دون المساس بالمعايير الصحفية. المفتاح في نهج متوازن ينظر إلى التكنولوجيا كأداة تدعم الصحفيين البشريين بدلاً من استبدالها. كما لاحظ جون ميكليثويت من بلومبرج على نحو مناسب: "ملخص الذكاء الاصطناعى هو فقط جيد مثل القصة التي تستند إليها. وما زال الناس مهمين للقصص".
نحن هنا من أجلك - المشورة - التخطيط - التنفيذ - إدارة المشاريع
☑️ دعم الشركات الصغيرة والمتوسطة في الإستراتيجية والاستشارات والتخطيط والتنفيذ
☑️ إنشاء أو إعادة تنظيم الإستراتيجية الرقمية والرقمنة
☑️ توسيع عمليات البيع الدولية وتحسينها
☑️ منصات التداول العالمية والرقمية B2B
☑️ رائدة في تطوير الأعمال
سأكون سعيدًا بالعمل كمستشار شخصي لك.
يمكنك الاتصال بي عن طريق ملء نموذج الاتصال أدناه أو ببساطة اتصل بي على +49 89 89 674 804 (ميونخ) .
إنني أتطلع إلى مشروعنا المشترك.
Xpert.Digital - كونراد ولفنشتاين
تعد Xpert.Digital مركزًا للصناعة مع التركيز على الرقمنة والهندسة الميكانيكية والخدمات اللوجستية/اللوجستية الداخلية والخلايا الكهروضوئية.
من خلال حل تطوير الأعمال الشامل الذي نقدمه، فإننا ندعم الشركات المعروفة بدءًا من الأعمال الجديدة وحتى خدمات ما بعد البيع.
تعد معلومات السوق والتسويق وأتمتة التسويق وتطوير المحتوى والعلاقات العامة والحملات البريدية ووسائل التواصل الاجتماعي المخصصة ورعاية العملاء المحتملين جزءًا من أدواتنا الرقمية.
يمكنك معرفة المزيد على: www.xpert.digital - www.xpert.solar - www.xpert.plus