أصبح المحتوى الناتج عن الذكاء الاصطناعي جزءًا لا يتجزأ من عالمنا الرقمي، مما يجعل مهمة التمييز بين الحقيقة والخيال أكثر تعقيدًا، خاصة في سياق الأخبار العاجلة. تبرز حرب إيران كمثال صارخ على ذلك، حيث شهدت انتشارًا غير مسبوق لصور ومقاطع فيديو مضللة تم إنشاؤها بواسطة الذكاء الاصطناعي.
منذ الهجمات الأمريكية والإسرائيلية على إيران في 28 فبراير، كثف الباحثون جهودهم لتتبع هذه الظاهرة. لقد تم رصد عدد هائل من الصور المفبركة التي وصلت إلى ملايين الأشخاص حول العالم. تشمل هذه الصور لقطات مزيفة لتفجيرات لم تحدث، وصورًا لجنود تم الادعاء بأنهم أسرى، ومقاطع فيديو دعائية إيرانية تصور شخصيات عامة كدمى. في اليوم العالمي العاشر لتقصي الحقائق، تسلط هذه التحديات المتطورة الضوء على الحاجة الملحة لزيادة الوعي.
تنتشر المعلومات المضللة التي تم إنشاؤها بواسطة الذكاء الاصطناعي بسرعة فائقة عبر عدد لا حصر له من المصادر. منذ بداية الأحداث، استغلت الأطراف المختلفة في الصراع هذا المحتوى. يكشف معهد الحوار الاستراتيجي، الذي يتابع المعلومات المضللة والتطرف عبر الإنترنت، عن حجم المشكلة. فقد رصد المعهد حسابات على منصة X (تويتر سابقًا) تنشر محتوى ذكاء اصطناعي بشكل منتظم، وحصلت مجتمعة على أكثر من مليار مشاهدة منذ بدء الصراع. ومن المثير للقلق أن العديد من هذه الحسابات كانت موثقة بعلامة التحقق الزرقاء.
في ظل هذا المشهد الرقمي المعقد، يزداد التحدي في التمييز بين المحتوى الذي أنشأه الذكاء الاصطناعي والواقع. لحسن الحظ، هناك خطوات يمكن اتخاذها للمساعدة في فك هذه الشبكة.
نصائح عملية للتحقق من المحتوى الرقمي
الانتباه إلى التفاصيل البصرية
في المراحل الأولى لانتشار الصور التي أنشأها الذكاء الاصطناعي، كانت هناك مؤشرات واضحة تدل على أنها مفبركة. غالبًا ما كانت هذه المؤشرات تشمل أخطاء في عدد الأصابع، أو عدم تزامن الصوت مع حركة الشفاه، أو نص غير منطقي، أو تشويه كبير في الأجسام. ومع تطور التكنولوجيا، أصبحت هذه القرائن أقل وضوحًا، لكنها لا تزال جديرة بالاهتمام.
راقب التناقضات مثل ظهور سيارة ثم اختفائها في مشهد واحد، أو أحداث تتحدى قوانين الفيزياء. قد تبدو بعض الصور مصقولة بشكل مبالغ فيه أو ذات لمعان غير طبيعي، مما قد يشير إلى تلاعب رقمي.
البحث عن مصدر المعلومات
تُعاد مشاركة الصور التي أنشأها الذكاء الاصطناعي بشكل متكرر. إحدى الطرق الفعالة لتحديد صحتها هي تتبع مصدرها الأصلي. يمكن استخدام البحث العكسي عن الصور لهذا الغرض. إذا كنت تشاهد مقطع فيديو، فقم بالتقاط لقطة شاشة أولاً. قد يقودك هذا البحث إلى حسابات مخصصة لإنشاء محتوى الذكاء الاصطناعي، أو إلى صورة قديمة تم تحريفها، أو إلى اكتشافات غير متوقعة.
الاستماع إلى آراء الخبراء والمصادر المتعددة
اعتمد على مصادر متعددة وموثوقة للتحقق من صحة الصور. يمكن أن يشمل ذلك التحقق من الحقائق من خلال وسائل الإعلام ذات السمعة الطيبة، أو مراجعة بيانات الشخصيات العامة، أو متابعة منشورات خبراء مكافحة التضليل المعلوماتي. غالبًا ما يمتلك هؤلاء المتخصصون تقنيات أكثر تطورًا لتحديد المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي، أو قد يصلون إلى معلومات حول الصورة لا تتوفر للعامة.
الاستفادة من التكنولوجيا بحذر
توجد الآن أدوات للكشف عن الذكاء الاصطناعي يمكن أن تكون نقطة انطلاق جيدة. ومع ذلك، كن حذرًا، فليست جميع تقييماتها دقيقة بنسبة 100%. بعض الأدوات، مثل SynthID المستخدمة في Gemini من Google، تضع علامات مائية رقمية غير مرئية في الصور التي يتم إنشاؤها أو تعديلها. بينما تضيف أدوات أخرى علامات مائية مرئية. من المهم ملاحظة أن إزالة هذه العلامات المائية غالبًا ما تكون سهلة، لذا فإن غيابها لا يضمن بالضرورة أن الصورة حقيقية.
إبطاء وتيرة استهلاك المعلومات
في بعض الأحيان، يكون الحل هو العودة إلى الأساسيات. توقف، خذ نفسًا عميقًا، ولا تشارك أي شيء إلا إذا كنت متأكدًا من صحته. يعتمد المخادعون غالبًا على ردود الفعل العاطفية السريعة للمستخدمين.
من خلال النظر إلى التعليقات، قد تجد أدلة قيمة. ربما لاحظ مستخدم آخر شيئًا فاتك، أو تمكن من العثور على المصدر الأصلي. في النهاية، التمييز الدقيق بنسبة 100% بين المحتوى الحقيقي والمحتوى الذي أنشأه الذكاء الاصطناعي ليس ممكنًا دائمًا. لذلك، كن دائمًا على دراية باحتمالية أن يكون المحتوى مضللاً.
هل صادفت شيئًا يبدو كاذبًا أو مضللاً؟ راسلنا على (البريد الإلكتروني محمي).
ابحث عن التحقق من صحة AP هنا: https://apnews.com/APFactCheck
