في السنوات الأخيرة، ظهرت تحديات جديدة تواجه المدارس والمجتمعات، وذلك مع التطور الهائل في تقنيات الذكاء الاصطناعي. لم يعد الأمر مجرد سهولة الوصول إلى المعلومات، بل امتد ليشمل أدوات يمكنها توليد صور ومقاطع فيديو مزيفة بشكل مقنع، تُعرف باسم “التزييف العميق” (Deepfakes). وتتعاظم المخاوف بشكل خاص بشأن استخدام هذه التقنيات من قبل الطلاب لإنشاء صور إباحية مزيفة لزملائهم، مما يؤدي إلى تداعيات وخيمة على الضحايا والمجتمع ككل. هذه الظاهرة ليست مجرد مشكلة تقنية، بل هي قضية أخلاقية وقانونية واجتماعية تتطلب استجابة شاملة.
انتشار التزييف العميق بين الطلاب: خطر متزايد
أصبحت قضية التزييف العميق ذات أهمية قصوى في أروقة المدارس، بعد سلسلة من الحوادث المروعة. أحد أبرز هذه الحوادث وقع في مدرسة متوسطة في ولاية لويزيانا الأمريكية هذا الخريف، حيث انتشرت صور عارية مزيفة للطلاب، يُعتقد أنها تم إنشاؤها باستخدام الذكاء الاصطناعي. استدعى هذا الحادث ردود فعل قوية وتوجيه تهم جنائية لبعض الطلاب المتورطين، إلا أن الضرر كان قد وقع بالفعل. وقد أدى الأمر إلى طرد أحد الضحايا بعد شجار مع المتهم بإنشاء الصور.
كما صرح عمدة أبرشية لافورش، كريج ويبر: “على الرغم من أن القدرة على التلاعب بالصور موجودة منذ عقود، إلا أن ظهور الذكاء الاصطناعي جعل الأمر في متناول الجميع، دون الحاجة إلى أي تدريب أو خبرة.” هذا التصريح يلخص جوهر المشكلة: سهولة الوصول إلى هذه التقنيات وقدرتها على إحداث ضرر كبير.
قوانين جديدة لمواجهة التزييف العميق
استجابةً لهذا الخطر المتزايد، بدأت العديد من الولايات الأمريكية في سن قوانين جديدة لمكافحة التزييف العميق. السيناتور الجمهوري باتريك كونيك، الذي صاغ إحدى هذه التشريعات، أكد أن الملاحقة القضائية في المدرسة الإعدادية في لويزيانا يُعتقد أنها الأولى من نوعها بموجب القانون الجديد للولاية.
تتراوح هذه القوانين بين استهداف صور الاعتداء الجنسي على الأطفال التي تم إنشاؤها بواسطة الذكاء الاصطناعي إلى قوانين أوسع نطاقًا تجرم إنشاء ونشر صور ومقاطع فيديو مزيفة تهدف إلى التشهير أو الإضرار بالآخرين. تشير الإحصائيات إلى أن أكثر من نصف الولايات الأمريكية ستصدر تشريعات تعالج استخدام الذكاء الاصطناعي التوليدي بحلول عام 2025.
وقد شهدت ولايات أخرى، مثل فلوريدا وبنسلفانيا وكاليفورنيا وتكساس، قضايا مماثلة تتضمن طلابًا ومعلمين، مما يؤكد على الحاجة الماسة إلى تدخل تشريعي وتوعية.
كيف تطورت تقنية التزييف العميق؟
لم تظهر تقنية التزييف العميق فجأة، بل تطورت على مر السنين. بدأت في البداية كأداة لإهانة المعارضين السياسيين أو الشخصيات العامة، ثم أصبحت أكثر تطورًا وانتشارًا. في الماضي القريب، كان إنشاء فيديوهات وصور مزيفة واقعية يتطلب مهارات تقنية عالية وبرامج معقدة.
ولكن، مع التقدم السريع في الذكاء الاصطناعي التوليدي، أصبح الأمر الآن بسيطًا للغاية. يمكن لأي شخص، باستخدام تطبيق بسيط على هاتفه الذكي، إنشاء صور ومقاطع فيديو مزيفة دون أي خبرة فنية، ونشرها بسهولة على وسائل التواصل الاجتماعي.
هذا التطور أدى إلى زيادة هائلة في عدد صور الاعتداء الجنسي على الأطفال التي تم إنشاؤها بواسطة الذكاء الاصطناعي، حيث ارتفع عددها من 4700 في عام 2023 إلى 440,000 في النصف الأول من عام 2025 فقط، وفقًا لبيانات المركز الوطني للأطفال المفقودين والمستغلين.
المدارس في مواجهة التحدي: هل هي مستعدة؟
يثير هذا الوضع تساؤلات حول مدى استعداد المدارس لمواجهة هذا التحدي الجديد. يرى خبراء في مجال التنمر عبر الإنترنت أن المدارس بحاجة إلى تحديث سياساتها المتعلقة بالتزييف العميق وتوضيحها للطلاب وأولياء الأمور.
ويؤكد سمير هندوجا، المدير المشارك لمركز أبحاث التنمر عبر الإنترنت، على أهمية أن يشعر الطلاب بأن الموظفين والمعلمين على دراية كاملة بهذه القضية، وأن هناك عواقب وخيمة لأي تصرف غير قانوني. ويضيف أن العديد من الآباء يفترضون أن المدارس تعالج هذه القضية، في حين أن الواقع قد يكون مختلفًا تمامًا.
الصدمة النفسية والتوعية كحلول
التزييف العميق ليس مجرد جريمة، بل هو اعتداء نفسي يترك آثارًا مدمرة على الضحايا. يختلف هذا النوع من التنمر عن التنمر التقليدي، حيث أن الصور ومقاطع الفيديو المزيفة تنتشر بسرعة كبيرة وتظل موجودة على الإنترنت لفترة طويلة، مما يخلق دورة لا تنتهي من الصدمة. يعاني العديد من الضحايا من الاكتئاب والقلق، وقد يلجأون إلى إغلاق حساباتهم على وسائل التواصل الاجتماعي.
للتصدي لهذه المشكلة، يجب على الآباء التحدث مع أبنائهم بشكل مفتوح حول مخاطر التزييف العميق وكيفية التعرف عليه. يمكن للآباء بدء المحادثة بسؤال أبنائهم عما إذا كانوا قد شاهدوا أي مقاطع فيديو مزيفة مضحكة عبر الإنترنت، ثم الانتقال إلى مناقشة العواقب الوخيمة لاستخدام هذه التقنيات بطريقة ضارة.
كما توصي لورا تيرني، المؤسسة والرئيسة التنفيذية للمعهد الاجتماعي، باستخدام الاختصار “SHIELD” لمساعدة الأطفال على الاستجابة لمواقف التزييف العميق:
- Stop (توقف) – لا تتقدم.
- Help (اطلب المساعدة) – تحدث إلى شخص بالغ موثوق به.
- Inform (أبلغ) – أبلغ منصات التواصل الاجتماعي.
- Evidence (جمع الأدلة) – اجمع الأدلة دون تنزيل أي شيء.
- Limit (حد) – حدد الوصول إلى وسائل التواصل الاجتماعي.
- Direct (وجه) – وجه الضحايا إلى المساعدة.
الخلاصة
إن قضية التزييف العميق التي يتم إنشاؤها بواسطة الذكاء الاصطناعي، وخاصةً فيما يتعلق بصور الاعتداء الجنسي المزيفة، تمثل تحديًا كبيرًا للمدارس والمجتمعات. تتطلب هذه القضية استجابة شاملة تتضمن سن قوانين جديدة، وتحديث سياسات المدارس، وزيادة التوعية بين الطلاب وأولياء الأمور، وتقديم الدعم النفسي للضحايا. الحل يكمن في العمل الجماعي والتعاون بين جميع الأطراف المعنية لحماية شبابنا من هذا الخطر المتزايد. يجب أن نتحرك الآن قبل أن تتفاقم الأمور وتزداد الأضرار.
