أعلنت شركة X، المملوكة لإيلون ماسك، عن قيود جديدة على ميزة الذكاء الاصطناعي الخاصة بها، Grok، بعد موجة انتقادات عالمية بسبب قدرتها على إنشاء صور إباحية أو فاضحة لشخصيات حقيقية. تهدف هذه الإجراءات إلى معالجة المخاوف المتعلقة بالاستغلال وسوء الاستخدام المحتمل لـ Grok، وتأتي استجابةً لتحقيقات رسمية وحظر مؤقت في بعض الدول.
جاء هذا الإعلان بعد ساعات من إعلان المدعي العام في كاليفورنيا، روب بونتا، عن فتح تحقيق في عمليات التزييف العميق (deepfakes) الجنسية التي تم إنشاؤها باستخدام Grok، بما في ذلك تلك التي تستهدف الأطفال. وذكر بونتا أن مكتبه تلقى عددًا كبيرًا من البلاغات في الأسابيع الأخيرة تفيد بأن المستخدمين يقومون بتحميل صور لنساء وقاصرات من الإنترنت ثم استخدام Grok لتحويلها إلى صور إباحية.
قيود جديدة على إنشاء الصور باستخدام Grok
أكدت X أنها طبقت تدابير تقنية لمنع حسابات Grok من تعديل الصور لشخصيات حقيقية بطرق فاضحة، مثل إزالة الملابس. تشمل هذه القيود جميع المستخدمين، بمن فيهم المشتركون المدفوعون. كانت الشركة قد فرضت قيودًا على المستخدمين غير المدفوعين الأسبوع الماضي، لكن هذه الخطوة قوبلت بانتقادات باعتبارها غير كافية.
وصفت متحدثة باسم رئيس الوزراء البريطاني كير ستارمر هذه الخطوة بأنها “تحول ببساطة ميزة الذكاء الاصطناعي التي تسمح بإنشاء صور غير قانونية إلى خدمة مدفوعة.” ورد إيلون ماسك، مالك X وشركة xAI المطورة لـ Grok، على منشور ينتقد هذه الخطوة، مدعيًا أن الحكومة البريطانية تبحث عن “أي ذريعة للرقابة”.
ردود الفعل الدولية وتصاعد المخاوف
تأتي هذه التطورات بعد أن علقت إندونيسيا وماليزيا استخدام Grok بسبب هذه الصور المسيئة، لتصبحا أول دولتين في العالم تحظران أداة الذكاء الاصطناعي هذه. كما أن المشرعين في المملكة المتحدة قد فكروا علنًا في تعليق الخدمة.
في وقت سابق من الأربعاء، قبل الإعلان الرسمي لشركة X، طلب ماسك من المستخدمين محاولة تجاوز القيود المفروضة على إنشاء الصور بواسطة نموذج الذكاء الاصطناعي. هذا الطلب أثار المزيد من الجدل والانتقادات.
تتزايد المخاوف بشأن الاستخدام الضار لتقنيات الذكاء الاصطناعي التوليدية، مثل إنشاء صور ومقاطع فيديو مزيفة (deepfakes) بهدف التشهير أو التحرش أو الاستغلال. تعتبر هذه القضية جزءًا من نقاش أوسع حول تنظيم الذكاء الاصطناعي وحماية الخصوصية والأمن.
تعتبر هذه الخطوة من X محاولة للاستجابة للضغوط المتزايدة من الحكومات والمنظمات الحقوقية، بالإضافة إلى المستخدمين الذين أعربوا عن قلقهم. الذكاء الاصطناعي يثير تساؤلات أخلاقية وقانونية معقدة تتطلب معالجة دقيقة.
صور الذكاء الاصطناعي أصبحت أداة قوية، ولكن مع هذه القوة تأتي مسؤولية كبيرة. تتطلب معالجة هذه المشكلات تعاونًا بين شركات التكنولوجيا وصانعي السياسات والمجتمع المدني.
بالإضافة إلى ذلك، فإن هذه القضية تسلط الضوء على التحديات التي تواجهها منصات التواصل الاجتماعي في مراقبة المحتوى وتنفيذه، خاصةً مع التطور السريع لتقنيات الذكاء الاصطناعي. الرقابة على الذكاء الاصطناعي هي موضوع حساس، حيث يجب الموازنة بين حرية التعبير والحماية من الأذى.
لم يرد مكتب بونتا ومكتب ستارمر على الفور على طلبات التعليق من Business Insider. من المتوقع أن تستمر التحقيقات في هذه القضية، وقد تؤدي إلى فرض المزيد من القيود على استخدام Grok أو تقنيات الذكاء الاصطناعي المماثلة. ستراقب الجهات التنظيمية عن كثب كيفية استجابة X لهذه المخاوف وما إذا كانت ستتخذ خطوات إضافية لحماية المستخدمين.
في المستقبل القريب، من المرجح أن نشهد المزيد من النقاش حول تنظيم الذكاء الاصطناعي وتطوير أدوات للكشف عن التزييف العميق (deepfakes) ومكافحته. من غير الواضح حتى الآن ما إذا كانت هذه الإجراءات ستكون كافية لمعالجة جميع المخاوف المتعلقة بـ Grok، ولكنها تمثل خطوة أولى في هذا الاتجاه.
