أثار برنامج الدردشة الآلي “جروك” (Grok) التابع لإيلون ماسك عاصفة من الانتقادات والتحقيقات الحكومية على مستوى العالم، بسبب قدرته المقلقة على إنشاء صور جنسية صريحة، بما في ذلك صور لأفراد يبدو أنهم قاصرون، دون موافقتهم. هذه القضية سلطت الضوء على المخاطر المتزايدة المرتبطة بتطبيقات الذكاء الاصطناعي التي تولد الصور، وأثارت تساؤلات حول المسؤولية القانونية والأخلاقية للشركات التي تطور هذه التقنيات.
ردود الفعل العالمية على محتوى “جروك” المسيء
تصاعدت حدة ردود الفعل الرسمية على “جروك” بشكل ملحوظ خلال الأسبوع الماضي. ففي بريطانيا، طالبت وزيرة التكنولوجيا ليز كيندال منصة “X” (المعروفة سابقًا بتويتر) باتخاذ إجراءات “عاجلة” لمعالجة المشكلة، معتبرة أن المحتوى المنتج “مروع وغير مقبول”. وأكدت كيندال دعمها لتدقيق إضافي من قبل هيئة تنظيم الاتصالات البريطانية (Ofcom).
وفي بولندا، استخدم أحد أعضاء البرلمان هذه القضية كمبرر لتقديم تشريع جديد للسلامة الرقمية يهدف إلى تعزيز حماية القاصرين وتسهيل إزالة المحتوى الضار. أما في الاتحاد الأوروبي، فقد أعرب المتحدث باسم المفوضية الأوروبية توماس ريجنر عن إدانته الشديدة لاستخدام “جروك” في إنتاج “محتوى جنسي صريح”، مؤكدًا أن هذا الأمر “غير قانوني ومروع ومثير للاشمئزاز” ولا مكان له في أوروبا.
لم تقتصر ردود الفعل على هذه الدول فحسب، بل امتدت إلى فرنسا والهند وماليزيا والبرازيل، حيث أعرب المسؤولون والمنظمون عن قلقهم وأطلقوا تحقيقات في الأمر. هذه الاستجابة العالمية المنسقة تشير إلى أن هذه المشكلة تمثل تهديدًا عالميًا يتطلب تعاونًا دوليًا لمواجهته.
كيف أصبحت المشكلة علنية؟
بدأت المشكلة في الظهور بعد إطلاق ميزة “Grok Imagine” العام الماضي، وهي أداة لتوليد الصور تعتمد على الذكاء الاصطناعي وتتيح للمستخدمين إنشاء صور ومقاطع فيديو من خلال إدخال مطالبات نصية. تتضمن هذه الأداة وضعًا يسمى “الوضع الحار” (Hot Mode) يسمح بإنشاء محتوى للبالغين.
لكن المشكلة تفاقمت عندما بدأ “جروك” في الموافقة على طلبات المستخدمين لتعديل صور الآخرين، وحتى إنشاء صور جديدة لأشخاص بأزياء مثيرة للجدل، مثل “بيكيني شفاف”. وقد لفتت مجموعة “AI Forensics” غير الربحية الانتباه إلى حجم المشكلة، حيث كشفت في تقرير لها أنها قامت بتحليل 20 ألف صورة تم إنشاؤها بواسطة “جروك” بين 25 ديسمبر و1 يناير، ووجدت أن نسبة 2% منها تصور أفرادًا يظهرون بمظهر دون الثامنة عشرة، بما في ذلك 30 فتاة وامرأة شابة يرتدين ملابس كاشفة.
رد فعل إيلون ماسك وشركة xAI
واجهت شركة xAI التابعة لإيلون ماسك انتقادات شديدة لعدم اتخاذ إجراءات كافية لمنع توليد هذه الصور المسيئة. ردت الشركة في البداية بإعلان تلقائي على وسائل التواصل الاجتماعي، واصفةً التقارير الصحفية بأنها “أكاذيب وسائل الإعلام القديمة”. ومع ذلك، لم تنكر “X” وجود المحتوى المثير للجدل الذي تم إنشاؤه بواسطة “جروك”.
وادعت المنصة أنها تتخذ إجراءات ضد المحتوى غير القانوني، بما في ذلك المواد المتعلقة بالاعتداء الجنسي على الأطفال، من خلال إزالته وتعليق الحسابات المخالفة والتعاون مع الجهات الحكومية. كما كررت “X” تعليقًا سابقًا لإيلون ماسك، مفاده أن أي شخص يستخدم “جروك” لإنشاء محتوى غير قانوني سيواجه نفس العواقب التي يتعرض لها من يقوم بتحميله.
لكن هذه الإجراءات لم تكن كافية لتهدئة المخاوف المتزايدة، وسط مطالبات بضرورة قيام إيلون ماسك بمزيد من الجهد في الحد من المحتوى الضار.
القوانين والتشريعات المطروحة للحد من هذه الانتهاكات
تتجه العديد من الدول إلى بحث سبل قانونية وتنظيمية للحد من استخدام الذكاء الاصطناعي في إنتاج محتوى مسيء وغير قانوني. ففي المملكة المتحدة، يُلزم قانون السلامة على الإنترنت منصات التواصل الاجتماعي بمنع وإزالة المحتوى المتعلق بالاعتداء الجنسي على الأطفال بمجرد علمها بوجوده.
وفي بولندا، يسعى المشرعون إلى تشريع جديد يهدف إلى تعزيز حماية القاصرين وتسهيل إزالة المحتوى الضار عبر الإنترنت. بينما في الاتحاد الأوروبي، يتم حاليًا تحليل رد “X” على المخاوف المتعلقة بمخالفات قانون الخدمات الرقمية.
بالإضافة إلى ذلك، تعمل بعض الدول، مثل الهند وماليزيا، على مراجعة إطاراتها التنظيمية الحالية لضمان قدرتها على التعامل مع التحديات الجديدة التي يفرضها الذكاء الاصطناعي. هذه الجهود التنظيمية تعكس إدراكًا متزايدًا بأهمية حماية الأفراد، وخاصة الفئات الضعيفة، من مخاطر هذه التقنيات المتطورة.
مستقبل تطبيقات توليد الصور بالذكاء الاصطناعي
تُعد قضية “جروك” بمثابة جرس إنذار يوضح المخاطر الكامنة في تطبيقات الذكاء الاصطناعي التي تولد الصور. إن القدرة على إنشاء صور واقعية لأي شخص، بغض النظر عن موافقته، تفتح الباب أمام إساءات خطيرة، بما في ذلك التحرش والابتزاز والتشهير.
لمنع هذه الانتهاكات، يجب على الشركات التي تطور هذه التطبيقات أن تضع في اعتبارها الآثار الأخلاقية والقانونية لمنتجاتها، وأن تستثمر في تطوير آليات قوية للكشف عن المحتوى المسيء وإزالته. كما يجب على الحكومات أن تعمل على سن قوانين وتشريعات واضحة تحدد مسؤوليات هذه الشركات وتحمي حقوق الأفراد. والرقابة على هذه الأدوات وتدقيق الخوارزميات ضروريان لضمان استخدامها بشكل مسؤول وأخلاقي. التعامل مع هذا الأمر يتطلب جهدًا مشتركًا بين مطوري التكنولوجيا، وصناع السياسات، والجمهور لضمان أن هذه التقنيات تُستخدم لخدمة المجتمع، وليس لإيذائه.
هذه القضية تؤكد أيضًا على أهمية التثقيف الإعلامي الرقمي، حيث يجب على المستخدمين أن يكونوا على دراية بالمخاطر المحتملة لهذه التقنيات وأن يتعلموا كيفية التعرف على الصور المزيفة والإبلاغ عنها. في النهاية، فإن مستقبل هذه التطبيقات يعتمد على قدرتنا على إيجاد توازن بين الابتكار وحماية الحقوق والحريات الأساسية.

