روبوتات الذكاء الاصطناعي في ظل التوسع الهائل لنماذج الذكاء الاصطناعي مفتوحة المصدر دقت مؤسسة “نيوز جارد” ناقوس الخطر في تقرير حديث كاشفة عن دور هذه التقنيات في تفاقم أزمة المعلومات المضللة وأظهر التقرير أن انتشار استخدام تطبيقات الذكاء الاصطناعي ساهم بشكل مباشر في رفع معدلات الأخبار المزيفة مقارنة بالعام الماضي مما يضع مصداقية المحتوى الرقمي على المحك.

آلية الرصد كيف تم فضح روبوتات الذكاء الاصطناعي؟
استند التقرير في تحليله على أداة متخصصة تُعرف باسم “إي آي فلاش كلايم مونيتور” وهو معيار دقيق تم تصميمه لقياس كيفية تفاعل نماذج الذكاء الاصطناعي مع الادعاءات الكاذبة التي تم إثبات زيفها مسبقًا.
وتقوم هذه الأداة بتتبع قدرة روبوتات الدردشة على كشف الأخبار الكاذبة وتحديد ما إذا كانت ستنجح في تصحيحها أم أنها ستسقط في فخ تكرارها ونشرها على نطاق أوسع.

نتائج صادمة تكشف حجم الأزمة
أجرى الباحثون اختبارات مكثفة على ما يقرب من 10 روبوتات محادثة شهيرة حول مجموعة متنوعة من الموضوعات وجاءت النتائج صادمة ومقلقة للغاية.
وأظهرت البيانات ارتفاعًا ملحوظًا في معدلات المعلومات الكاذبة ضمن إجابات هذه الروبوتات حيث تراوحت نسبتها بين 18% إلى 35% وهو ما يؤكد أن الاعتماد عليها كمصدر للمعلومات قد يكون محفوفًا بالمخاطر.

قائمة المتهمين “انفلاكشن” يتصدر و”جيميني” يتراجع
كشف التقرير عن قائمة بأكثر الروبوتات إنتاجًا للإجابات الكاذبة حيث احتل روبوت “انفلاكشن” المركز الأول بنسبة صادمة بلغت 57%.
وجاء في المرتبة الثانية روبوت “بريبلكسيتي” بنسبة 47% كأحد أكثر النماذج ترويجًا للأخبار المزيفة لعام 2025 بينما حل روبوت “كلاود” في المرتبة الأخيرة كأقل النماذج نشرًا للمحتوى المضلل.
والمثير للقلق أيضًا هو تراجع أداء روبوت “جيميني” الذي وصلت نسبة المعلومات المضللة في إجاباته إلى 17% هذا العام مقارنة بنسبة 7% فقط في العام الماضي.
خطر يتضخم في أوقات الأحداث الكبرى
فسر الباحثون هذه الزيادة في الأخطاء بأن جميع الروبوتات أصبحت تحاول الإجابة على 100% من الاستفسارات الموجهة إليها مما يزيد من احتمالية الخطأ.

وخلص التقرير إلى نتيجة مفادها أن روبوتات الدردشة باتت أكثر عرضة لنشر أو تضخيم الأخبار الكاذبة خاصة خلال الأحداث العاجلة والأخبار الكبرى بسبب الإقبال الجماهيري المتزايد عليها للحصول على معلومات سريعة.