واشنطن (ا ف ب) – قام طبيب نفسي للأطفال بتغيير صورة اليوم الأول للمدرسة التي شاهدها على فيسبوك لجعل مجموعة من الفتيات يظهرن عاريات. جندي في الجيش الأمريكي متهم بإنشاء صور تصور أطفالًا كان يعلم أنهم تعرضوا للاعتداء الجنسي. مهندس برمجيات مكلف بإنشاء صور جنسية صريحة للغاية للأطفال.

تقوم وكالات إنفاذ القانون في جميع أنحاء الولايات المتحدة باتخاذ إجراءات صارمة ضد أ انتشار مثير للقلق لصور الاعتداء الجنسي على الأطفال تم إنشاؤها من خلال تكنولوجيا الذكاء الاصطناعي – بدءًا من الصور التي تم التلاعب بها لأطفال حقيقيين وحتى الصور الرسومية للأطفال التي تم إنشاؤها بواسطة الكمبيوتر. ويقول مسؤولو وزارة العدل إنهم يلاحقون المجرمين الذين يستغلون أدوات الذكاء الاصطناعي بقوة الدول تتسابق لضمان محاكمة الأشخاص الذين ينتجون “صور مزيفة عميقة” وغيرها من الصور الضارة للأطفال بموجب قوانينها.

وقال ستيفن غروكي، الذي يقود قسم استغلال الأطفال والفحش بوزارة العدل، في مقابلة مع صحيفة The Guardian: “علينا أن نشير مبكراً، وفي كثير من الأحيان، إلى أنها جريمة، وأنه سيتم التحقيق فيها ومحاكمتها عندما تدعمها الأدلة”. وكالة انباء. “وإذا كنت تجلس هناك وتفكر بطريقة أخرى، فأنت مخطئ بشكل أساسي. وهي مسألة وقت فقط قبل أن يحاسبك شخص ما.

تقول وزارة العدل إن القوانين الفيدرالية الحالية تنطبق بوضوح على مثل هذا المحتوى، وقد قدمت مؤخرًا ما يُعتقد أنه أول قضية فيدرالية تتضمن صورًا تم إنشاؤها بواسطة الذكاء الاصطناعي – مما يعني أن الأطفال المصورين ليسوا حقيقيين بل افتراضيين. وفي قضية أخرى، اعتقلت السلطات الفيدرالية في أغسطس/آب جنديًا أمريكيًا متمركزًا في ألاسكا متهمًا بنشر صور بريئة لأطفال حقيقيين كان يعرفهم من خلال برنامج الدردشة الآلي الذي يعمل بالذكاء الاصطناعي لجعل الصور جنسية صريحة.

تحاول اللحاق بالتكنولوجيا

وتأتي الملاحقات القضائية في الوقت الذي يعمل فيه المدافعون عن الأطفال بشكل عاجل للحد من إساءة استخدام التكنولوجيا لمنع تدفق الصور المزعجة التي يخشى المسؤولون أن تجعل من الصعب إنقاذ الضحايا الحقيقيين. يشعر المسؤولون عن إنفاذ القانون بالقلق من أن المحققين سيضيعون الوقت والموارد في محاولة تحديد وتعقب الأطفال المستغلين الذين لا وجود لهم بالفعل.

في هذه الأثناء، يقوم المشرعون بتمرير سلسلة من التشريعات لضمان قدرة المدعين المحليين على توجيه اتهامات بموجب قوانين الولاية بشأن “التزييف العميق” الناتج عن الذكاء الاصطناعي وغيرها من الصور الجنسية الصريحة للأطفال. وقع حكام أكثر من اثنتي عشرة ولاية هذا العام قوانين تتخذ إجراءات صارمة ضد صور الاعتداء الجنسي على الأطفال التي تم إنشاؤها أو تغييرها رقميًا، وفقًا لمراجعة أجراها المركز الوطني للأطفال المفقودين والمستغلين.

وقال إريك ناسارينكو، المدعي العام لمقاطعة كاليفورنيا: “إننا نلعب لعبة اللحاق بركب تطبيق القانون في مجال التكنولوجيا التي، بصراحة، تتحرك بشكل أسرع بكثير منا”.

دفع ناسارينكو التشريع وقعت الشهر الماضي بقلم الحاكم جافين نيوسوم والذي يوضح أن مواد الاعتداء الجنسي على الأطفال التي ينتجها الذكاء الاصطناعي غير قانونية بموجب قانون ولاية كاليفورنيا. وقال ناسارينكو إن مكتبه لا يمكنه مقاضاة ثماني قضايا تتعلق بمحتوى تم إنشاؤه بواسطة الذكاء الاصطناعي بين ديسمبر الماضي ومنتصف سبتمبر لأن قانون كاليفورنيا يلزم المدعين بإثبات أن الصور تصور طفلاً حقيقياً.

يقول مسؤولو إنفاذ القانون إن صور الاعتداء الجنسي على الأطفال التي أنشأها الذكاء الاصطناعي يمكن استخدامها لتهذيب الأطفال. وحتى لو لم يتعرضوا للإيذاء الجسدي، يمكن أن يتأثر الأطفال بشدة عندما يتم تحويل صورتهم لتظهر جنسيًا صريحًا.

“شعرت وكأن جزءًا مني قد أُخذ بعيدًا. قالت كايلين هايمان البالغة من العمر 17 عاماً، والتي لعبت دور البطولة في برنامج “Just Roll with It” على قناة ديزني وساعدت في دفع مشروع قانون كاليفورنيا بعد أن أصبحت ضحية لصور “التزييف العميق”، “على الرغم من أنني لم أتعرض للانتهاك الجسدي”.

وأدلت هايمان بشهادتها العام الماضي في المحاكمة الفيدرالية للرجل الذي قام بتركيب وجهها ووجه الممثلين الأطفال الآخرين رقميًا على أجساد تمارس أفعالًا جنسية. وحُكم عليه، في مايو/أيار، بالسجن لأكثر من 14 عاماً.

يقول الخبراء إن نماذج الذكاء الاصطناعي مفتوحة المصدر التي يمكن للمستخدمين تنزيلها على أجهزة الكمبيوتر الخاصة بهم، من المعروف أنها مفضلة لدى المجرمين، حيث يمكنهم تدريب أو تعديل الأدوات لإنتاج صور صريحة للأطفال. يقول المسؤولون إن المسيئين يتبادلون النصائح في مجتمعات الويب المظلمة حول كيفية التعامل مع أدوات الذكاء الاصطناعي لإنشاء مثل هذا المحتوى.

تقرير العام الماضي وجد مرصد الإنترنت بجامعة ستانفورد أن مجموعة بيانات بحثية كانت مصدرًا لكبار صانعي صور الذكاء الاصطناعي، مثل Stable Diffusion، تحتوي على روابط لصور جنسية صريحة للأطفال، مما ساهم في السهولة التي تمكنت بها بعض الأدوات من إنتاج صور ضارة. وقد تم حذف مجموعة البيانات، كما قال الباحثون في وقت لاحق قاموا بحذفها أكثر من 2000 رابط ويب لصور الاعتداء الجنسي على الأطفال المشتبه بها منه.

وافقت شركات التكنولوجيا الكبرى، بما في ذلك Google وOpenAI وStability AI، على العمل مع منظمة Thorn لمكافحة الاعتداء الجنسي على الأطفال لمكافحة الانتشار من صور الاعتداء الجنسي على الأطفال.

لكن الخبراء يقولون إنه كان ينبغي بذل المزيد من الجهود في البداية لمنع سوء الاستخدام قبل أن تصبح التكنولوجيا متاحة على نطاق واسع. وأشار المدعي العام بوزارة العدل في أوراق المحكمة الأخيرة إلى أن الخطوات التي تتخذها الشركات الآن لتجعل من الصعب إساءة استخدام الإصدارات المستقبلية من أدوات الذكاء الاصطناعي “لن تفعل الكثير لمنع” المجرمين من تشغيل الإصدارات القديمة من النماذج على أجهزة الكمبيوتر الخاصة بهم “دون اكتشافهم”.

وقال ديفيد ثيل، كبير خبراء التكنولوجيا في مرصد الإنترنت في ستانفورد: “لم يتم إنفاق الوقت على جعل المنتجات آمنة، بدلاً من جعلها فعالة، ومن الصعب جدًا القيام بذلك بعد حدوثها – كما رأينا”.

أصبحت صور الذكاء الاصطناعي أكثر واقعية

تلقى المركز الوطني للأطفال المفقودين والمستغلين CyberTipline العام الماضي حوالي 4700 تقرير عن محتوى يتضمن تكنولوجيا الذكاء الاصطناعي – وهو جزء صغير من إجمالي أكثر من 36 مليون تقرير عن الاستغلال الجنسي للأطفال المشتبه بهم. وقال يوتا سوراس، كبير المسؤولين القانونيين في المجموعة، إنه بحلول شهر أكتوبر من هذا العام، كانت المجموعة تقدم حوالي 450 تقريرًا شهريًا عن المحتوى المرتبط بالذكاء الاصطناعي.

ومع ذلك، يقول الخبراء إن هذه الأرقام قد تكون أقل من الواقع، لأن الصور واقعية للغاية، ومن الصعب في كثير من الأحيان معرفة ما إذا كانت تم إنشاؤها بواسطة الذكاء الاصطناعي.

وقال ريكول كيلي، نائب المدعي العام لمقاطعة فينتورا، والذي ساعد في كتابة مشروع قانون كاليفورنيا: “يقضي المحققون ساعات في محاولة تحديد ما إذا كانت الصورة تصور بالفعل قاصرًا حقيقيًا أم أنها تم إنشاؤها بواسطة الذكاء الاصطناعي”. “كان من المعتاد أن تكون هناك بعض المؤشرات الواضحة حقًا… ومع التقدم في تكنولوجيا الذكاء الاصطناعي، لم يعد هذا هو الحال بعد الآن.”

ويقول مسؤولو وزارة العدل إن لديهم بالفعل الأدوات بموجب القانون الفيدرالي لملاحقة الجناة بسبب مثل هذه الصور.

المحكمة العليا الأمريكية في 2002 أسقط الحظر الفيدرالي على مواد الاعتداء الجنسي على الأطفال الافتراضية. لكن قانونًا اتحاديًا تم التوقيع عليه في العام التالي يحظر إنتاج صور مرئية، بما في ذلك الرسومات، للأطفال المنخرطين في سلوك جنسي صريح يعتبر “فاحشًا”. يشير هذا القانون، الذي تقول وزارة العدل إنه تم استخدامه في الماضي لفرض رسوم كاريكاتورية عن الاعتداء الجنسي على الأطفال، على وجه التحديد إلى أنه لا يوجد شرط “بوجود القاصر المصور بالفعل”.

ووجهت وزارة العدل هذه التهمة في مايو/أيار الماضي ضد مهندس برمجيات من ولاية ويسكونسن متهم باستخدام أداة الذكاء الاصطناعي “Stable Diffusion” لإنشاء صور واقعية لأطفال يشاركون في سلوك جنسي صريح، وتم القبض عليه بعد أن أرسل بعض الصور إلى صبي يبلغ من العمر 15 عامًا من خلال اتصال مباشر. وتقول السلطات إن الرسالة على إنستغرام. ورفض محامي الرجل، الذي يسعى لإسقاط التهم على أساس التعديل الأول للدستور، التعليق أكثر على هذه المزاعم في رسالة بالبريد الإلكتروني إلى وكالة الأسوشييتد برس.

وقال متحدث باسم Stability AI إن الرجل متهم باستخدام نسخة سابقة من الأداة التي أصدرتها شركة أخرى، Runway ML. تقول Stability AI إنها “استثمرت في ميزات استباقية لمنع إساءة استخدام الذكاء الاصطناعي لإنتاج محتوى ضار” منذ توليها التطوير الحصري للنماذج. لم يستجب المتحدث باسم Runway ML على الفور لطلب التعليق من AP.

في الحالات التي تنطوي على “التزييف العميق”، عندما يتم تعديل صورة طفل حقيقي رقميًا لجعلها جنسية صريحة، توجه وزارة العدل اتهامات بموجب قانون “استغلال الأطفال في المواد الإباحية” الفيدرالي. في إحدى القضايا، أُدين طبيب نفسي للأطفال من ولاية كارولينا الشمالية، استخدم تطبيق الذكاء الاصطناعي لـ “خلع ملابس” الفتيات رقميًا في اليوم الأول من المدرسة في صورة عمرها عقود تم نشرها على فيسبوك، بتهم فيدرالية العام الماضي.

“هذه القوانين موجودة. سيتم استخدامها. لدينا الإرادة. قال غروكي: “لدينا الموارد”. “لن تكون هذه أولوية منخفضة نتجاهلها لأنه لا يوجد طفل حقيقي معني.”

شاركها.