
كشفت دراسة حديثة أجرتها هيئة الإذاعة البريطانية (BBC) عن أخطاء كبيرة ترتكبها أنظمة الذكاء الاصطناعي عند تلخيص الأخبار، ما يثير تساؤلات حول مدى دقة هذه الأدوات في معالجة المحتوى الصحفي.
شملت الدراسة أربعة من أشهر روبوتات الدردشة: ChatGPT من OpenAI، وCopilot من مايكروسوفت، وGemini من جوجل، وPerplexity.
وطلبت BBC منهم تلخيص 100 مقال إخباري خاص بالهيئة.
ثم قامت بتقييم كل إجابة لتحديد مدى دقة استجابات الذكاء الاصطناعي.
أخطاء جوهرية وتشويه للحقائق
أوضحت الدراسة أن 51% من الردود التي قدمتها هذه الأنظمة احتوت على مشكلات كبيرة.
بينما تضمنت 19% من الإجابات التي استندت إلى محتوى BBC أخطاءً فعلية، مثل أرقام غير دقيقة أو تواريخ غير صحيحة.
وفي بعض الحالات، قدمت روبوتات الدردشة تصريحات مغلوطة تمامًا، مثل زعم Gemini أن هيئة الخدمات الصحية الوطنية في بريطانيا (NHS) لا توصي بالسجائر الإلكترونية كوسيلة للإقلاع عن التدخين، وهو ما يخالف الواقع.
كما أخطأ كل من ChatGPT وCopilot في تحديد المناصب السياسية، إذ زعما أن ريشي سوناك ونيكولا ستورجن لا يزالان في منصبيهما، رغم مغادرتهما السلطة.
أما Perplexity، فقد نسب إلى BBC تصريحات لم تذكرها بشأن التوترات في الشرق الأوسط، وهو ما يعكس مشكلة أخرى تتعلق بالدقة التحريرية لهذه الأدوات.
مشكلة التمييز بين الرأي والحقيقة
إحدى النقاط المثيرة للقلق التي أبرزتها الدراسة هي أن أنظمة الذكاء الاصطناعي تواجه صعوبة في التمييز بين الرأي والحقيقة.
فقد لاحظ الباحثون أن بعض الملخصات لم تقتصر على نقل المعلومات بل تضمنت تعليقات تحريرية أو تجاهلت سياقات أساسية، وهو ما قد يؤدي إلى تشويه المعنى الحقيقي للأخبار.
هذه المشكلة ليست جديدة، إذ سبق أن واجهت شركات تقنية كبرى مثل آبل انتقادات مشابهة عندما أطلقت أداة تلخيص الأخبار ضمن ميزة "Apple Intelligence"، والتي اضطرت إلى تعليقها مؤقتًا بعد رصد أخطاء في معالجة المحتوى.
وفي تعليقها على نتائج الدراسة، دعت "ديبورا تورنيس"، الرئيسة التنفيذية لـ BBC News، شركات التكنولوجيا إلى إعادة النظر في كيفية استخدام الذكاء الاصطناعي للمحتوى الإخباري، محذرة من أن تشويه الحقائق قد تكون له عواقب خطيرة.
وأشارت إلى أن الهيئة تسعى لإجراء محادثات مع مطوري هذه الأنظمة لإيجاد حلول تضمن تقديم ملخصات دقيقة لا تشوه الأخبار.
ومن جانبها، دافعت OpenAI عن نهجها، مشيرة إلى أنها تعمل على تحسين دقة الاقتباسات والملخصات. كما أنها تتيح للناشرين التحكم في كيفية استخدام محتواهم عبر أدوات مثل "robots.txt".
هل يمكن الوثوق بملخصات الذكاء الاصطناعي
مع التطور السريع لنماذج الذكاء الاصطناعي، تزداد التساؤلات حول مدى موثوقيتها في تقديم المعلومات.
فبينما تعد هذه الأدوات مفيدة في كثير من المجالات، إلا أن استخدامها في الصحافة يفرض تحديات كبيرة، خاصة عندما يتعلق الأمر بدقة المعلومات وسياقها.
وحتى الآن، لا يبدو أن هذه الأنظمة قادرة على استبدال المصادر الإخبارية التقليدية،.
بل إنها تحتاج إلى تحسينات كبيرة قبل أن تصبح بديلاً موثوقًا به في مجال الصحافة.
ولذلك، من الأفضل التعامل بحذر مع الملخصات التي تقدمها أنظمة الذكاء الاصطناعي، والاعتماد على المصادر الأصلية للتحقق من المعلومات.