تُظهر هذه الصورة المصورة المصور المصور المصور ، عمر القطات ، فتاة هيكلية خامت في غزة ، حيث غذت الحصار الإسرائيلية مخاوف من المجاعة الجماعية في الأراضي الفلسطينية.

ولكن عندما سأل مستخدمو وسائل التواصل الاجتماعي Grok من أين أتت ، كان Chatbot في X Boss Elon Musk التأكد من أن الصورة قد التقطت في اليمن قبل حوالي سبع سنوات.

تمت مشاركة استجابة AI Bot غير الصحيحة على نطاق واسع عبر الإنترنت وتم اتهام المشرع الفرنسي اليساري المؤيد للفلسطينيين ، أيمر كارون ، بتزويد المعلومات المضللة في حرب إسرائيل هاماس لنشر الصورة.

في الوقت الذي يتحول فيه مستخدمو الإنترنت إلى الذكاء الاصطناعى للتحقق من الصور أكثر فأكثر ، يُظهر الغضب مخاطر أدوات الثقة مثل Grok ، عندما تكون التكنولوجيا بعيدة عن الأخطاء.

وقال جروك إن الصورة أظهرت أمل حسين ، طفل يمني يبلغ من العمر سبع سنوات ، في أكتوبر 2018.

في الواقع ، تُظهر الصورة ماريام دوواس البالغة من العمر تسع سنوات في أحضان والدتها مودالالا في مدينة غزة في 2 أغسطس 2025.

قبل الحرب ، التي أشعلتها هجوم حماس في 7 أكتوبر 2023 على إسرائيل ، كانت ماريام تزن 25 كيلوغرامًا ، كما قالت والدتها لوكالة فرانس برس.

اليوم ، تزن تسعة فقط. أخبرت مودالالا أن التغذية الوحيدة التي تحصل عليها لمساعدة حالتها هي الحليب. وحتى هذا “غير متوفر دائمًا”.

وقال جروك: “أنا لا أنشر أخبارًا مزيفة ، فأنا أقدر إجاباتي على مصادر تم التحقق منها”.

أصدر chatbot في نهاية المطاف ردًا أدرك الخطأ – ولكن رداً على استفسارات أخرى في اليوم التالي ، كرر Grok ادعائه بأن الصورة كانت من اليمن.

سبق أن أصدر chatbot محتوى أشاد به الزعيم النازي أدولف هتلر والذي اقترح على الأشخاص الذين لديهم ألقاب يهودية أكثر عرضة لنشر الكراهية عبر الإنترنت.

– التحيز الأيمن الراديكالي –

وقال لويس دي ديزباخ ، الباحث في الأخلاق التكنولوجية ، إن أخطاء جروك توضح حدود أدوات الذكاء الاصطناعي ، التي لا يمكن اختراق وظائفها مثل “الصناديق السوداء”.

وقال ديزباخ ، مؤلف كتاب عن أدوات الذكاء الاصطناعى ، “Hello Chatgpt”: “لا نعرف بالضبط سبب إعطاء هذا الرد أو ذاك ، ولا كيفية إعطاء أولويات مصادرهم”.

وقال إن كل منظمة العفو الدولية لها تحيزات مرتبطة بالمعلومات التي تم تدريبها وتعليمات المبدعين.

في عرض الباحث Grok ، الذي صنعته شركة Musk's Xai Start-up ، يُظهر “تحيزات واضحة للغاية والتي تتوافق بشكل كبير مع الأيديولوجية” للملياردير الجنوب أفريقي ، وهو مقرب سابق للرئيس الأمريكي دونالد ترامب وحامل قياسي للحق الراديكالي.

وقال ديزباخ إن مطالبة chatbot بتحديد أصل الصورة يأخذها من دورها الصحيح.

“عادة ، عندما تبحث عن أصل صورة ما ، قد يقول:” كان من الممكن التقاط هذه الصورة في اليمن ، كان من الممكن أن تؤخذ في غزة ، يمكن أن تؤخذ في أي بلد حيث توجد مجاعة “.

وقال الخبير إن الذكاء الاصطناعي لا يسعى بالضرورة إلى الدقة – “هذا ليس الهدف”.

كانت هناك صورة أخرى لطفل غازان جوع من قِبل القناة ، التي التقطت في يوليو 2025 ، كانت موجودة بالفعل بشكل خاطئ ومؤرخها Grok إلى اليمن ، 2016.

أدى هذا الخطأ إلى اتهام مستخدمي الإنترنت بتحرير الصحف الفرنسية ، التي نشرت صورة التلاعب.

– “كاذب مرضي ودود” –

يرتبط تحيز الذكاء الاصطناعي بالبيانات التي يتم تغذيتها وما يحدث أثناء الضبط-ما يسمى مرحلة المحاذاة-والتي تحدد بعد ذلك ما الذي سيقيمه النموذج كإجابة جيدة أو سيئة.

وقال ديزباخ: “لمجرد أنك تشرح لها أن خطأ الإجابة لا يعني أنه سيعطي بعد ذلك واحدة مختلفة”.

“لم تتغير بيانات التدريب الخاصة بها ولم تتضمن محاذاة.”

Grok ليس وحده في تحديد الصور بشكل خاطئ.

عندما طلبت وكالة فرانس برس ميسخال منظمة العفو الدولية ، التي تم تدريبها جزئيًا على مقالات وكالة فرانس برس بموجب اتفاق بين بدء التشغيل الفرنسي ووكالة الأنباء-فقد أخطأ الروبوت في صورة مريم دوواس على أنها من اليمن.

بالنسبة إلى Diesbach ، يجب ألا تستخدم chatbots أبدًا كأدوات للتحقق من الحقائق.

وقال “لم يتم إجراؤهم ليقولوا الحقيقة” ، بل “توليد المحتوى ، سواء كان صحيحًا أم خطأ”.

“عليك أن تنظر إليها مثل كذاب مرضي ودود – قد لا يكذب دائمًا ، لكن يمكن دائمًا ذلك.”

شاركها.
Exit mobile version