نيويورك (أ ب) – تم التلاعب بمقطع فيديو يحاكي صوت نائبة الرئيس كامالا هاريس إن قول أشياء لم تقلها يثير المخاوف بشأن قوة الذكاء الاصطناعي لتضليل الناس مع اقتراب يوم الانتخابات بعد ثلاثة أشهر تقريبًا.

حظي الفيديو بالاهتمام بعد الملياردير التكنولوجي إيلون ماسك شاركها على منصته للتواصل الاجتماعي X مساء الجمعة دون الإشارة صراحة إلى أنها صدرت في الأصل كمحاكاة ساخرة.

يستخدم الفيديو العديد من العناصر المرئية نفسها الموجودة في الإعلان الحقيقي الذي قدمه هاريس، المرشح الديمقراطي المحتمل للرئاسة، تم إطلاق مقطع فيديو لها الأسبوع الماضي لإطلاق حملتها. لكن الفيديو يستبدل الصوت المصاحب بصوت آخر يقلد هاريس بشكل مقنع.

“أنا، كامالا هاريس، مرشحة الحزب الديمقراطي للرئاسة لأن جو بايدن كشف أخيرًا عن خرفته في المناظرة”، يقول الصوت في الفيديو. يزعم أن هاريس هي “مرشحة متنوعة” لأنها امرأة وشخصية ملونة، ويقول إنها لا تعرف “أول شيء عن إدارة البلاد”. يحتفظ الفيديو بعلامة “هاريس للرئاسة”. ويضيف أيضًا بعض المقاطع الأصلية السابقة لهاريس.

وقالت ميا إيرينبيرج، المتحدثة باسم حملة هاريس، في رسالة بالبريد الإلكتروني إلى وكالة أسوشيتد برس: “نعتقد أن الشعب الأمريكي يريد الحرية الحقيقية والفرصة والأمن الذي تقدمه نائبة الرئيس هاريس؛ وليس الأكاذيب المزيفة والمُتلاعب بها من قبل إيلون ماسك ودونالد ترامب”.

يعد الفيديو الذي تمت مشاركته على نطاق واسع مثالاً على مدى واقعية الصور أو مقاطع الفيديو أو المقاطع الصوتية التي تم إنشاؤها بواسطة الذكاء الاصطناعي لقد تم استخدام هذه الأدوات للسخرية وتضليل الناس بشأن السياسة مع اقتراب الولايات المتحدة من الانتخابات الرئاسية. إنها تكشف كيف أصبحت أدوات الذكاء الاصطناعي عالية الجودة بعيدة المنال. أكثر يسراولكن حتى الآن، لا يزال هناك نقص في الإجراءات الفيدرالية المهمة لتنظيم استخدامها، الأمر الذي يترك القواعد التي توجه الذكاء الاصطناعي في السياسة إلى حد كبير للولايات ومنصات التواصل الاجتماعي.

ويثير الفيديو أيضًا تساؤلات حول أفضل السبل للتعامل مع المحتوى الذي يطمس الخطوط الفاصلة بين ما يعتبر استخدامًا مناسبًا للذكاء الاصطناعي، خاصة إذا كان يندرج ضمن فئة السخرية.

وقد كشف المستخدم الأصلي الذي نشر الفيديو، وهو أحد مستخدمي موقع يوتيوب المعروف باسم السيد ريغان، على موقع يوتيوب وعلى موقع إكس أن الفيديو الذي تم التلاعب به هو محاكاة ساخرة. لكن منشور ماسك، الذي تمت مشاهدته أكثر من 123 مليون مرة، وفقًا للمنصة، لا يتضمن سوى تعليق “هذا مذهل” مع رمز تعبيري ضاحك.

قد يعرف مستخدمو X الذين يعرفون المنصة أنه يتعين عليهم النقر فوق منشور Musk للوصول إلى منشور المستخدم الأصلي، حيث يكون الإفصاح مرئيًا. لا يوجههم تعليق Musk إلى القيام بذلك.

ما الذي يجب أن تعرفه عن انتخابات 2024

  • ديمقراطية: لقد تغلبت الديمقراطية الأمريكية على اختبارات الضغط الكبيرة منذ عام 2020. هناك المزيد من التحديات تنتظرنا في عام 2024.
  • دور AP: وكالة أسوشيتد برس هي المصدر الأكثر موثوقية للمعلومات عن ليلة الانتخابات، مع تاريخ من الدقة يعود إلى عام 1848. يتعلم أكثر.
  • البقاء على علم. تابع آخر الأخبار من خلال تنبيهات البريد الإلكتروني للأخبار العاجلة. سجل هنا.

في حين اقترح بعض المشاركين في ميزة “الملاحظة المجتمعية” في X لإضافة سياق إلى المنشورات وضع علامة على منشور ماسك، لم تتم إضافة مثل هذه العلامة إليه حتى ظهر يوم الأحد. وتساءل بعض المستخدمين عبر الإنترنت عما إذا كان منشوره قد ينتهك سياسات X، والتي تنص على أن المستخدمين “لا يجوز لهم مشاركة الوسائط الاصطناعية أو المتلاعب بها أو خارج السياق والتي قد تخدع أو تربك الأشخاص وتؤدي إلى الأذى”.

وتستثني السياسة الميمات والسخرية طالما أنها لا تسبب “ارتباكًا كبيرًا حول صحة الوسائط”.

أيد ماسك الرئيس السابق دونالد ترامب، المرشح الجمهوري، في وقت سابق من هذا الشهر. ولم يستجب ريغان ولا ماسك على الفور لطلبات التعليق التي أُرسلت عبر البريد الإلكتروني يوم الأحد.

قام خبيران متخصصان في الوسائط التي يتم إنشاؤها بواسطة الذكاء الاصطناعي بمراجعة الصوت الخاص بالإعلان المزيف وأكدا أن الكثير منه تم إنشاؤه باستخدام تقنية الذكاء الاصطناعي.

وقال أحد الخبراء، وهو خبير الأدلة الرقمية بجامعة كاليفورنيا في بيركلي، هاني فريد، إن الفيديو يظهر قوة الذكاء الاصطناعي التوليدي والتزييف العميق.

وقال في رسالة بالبريد الإلكتروني: “الصوت الذي تم إنشاؤه بواسطة الذكاء الاصطناعي جيد جدًا. وعلى الرغم من أن معظم الناس لن يصدقوا أنه صوت نائبة الرئيس هاريس، فإن الفيديو يكون أقوى بكثير عندما تكون الكلمات بصوتها”.

وقال إن شركات الذكاء الاصطناعي التوليدي التي تجعل أدوات استنساخ الصوت وأدوات الذكاء الاصطناعي الأخرى متاحة للجمهور يجب أن تبذل المزيد من الجهود لضمان عدم استخدام خدماتها بطرق قد تضر بالناس أو الديمقراطية.

أبدى روب وايسمان، الرئيس المشارك لمجموعة الدفاع عن حقوق المواطنين، اختلافه مع فريد، قائلاً إنه يعتقد أن العديد من الناس سوف ينخدعون بالفيديو.

“لا أعتقد أن هذا مزحة بكل وضوح”، هكذا صرح فايسمان في مقابلة. “أنا متأكد من أن معظم الناس الذين يشاهدون الفيلم لا يفترضون أنه مزحة. الجودة ليست رائعة، لكنها جيدة بما فيه الكفاية. وبالتحديد لأنها تغذي موضوعات موجودة مسبقًا كانت تدور حولها، فإن معظم الناس سيصدقون أنها حقيقية”.

وقال فايسمان، الذي دعت منظمته الكونجرس والوكالات الفيدرالية والولايات إلى تنظيم الذكاء الاصطناعي التوليدي، إن الفيديو هو “نوع الشيء الذي كنا نحذر منه”.

كانت هناك محاولات أخرى لمحاكاة الواقع المعزز باستخدام الذكاء الاصطناعي في الولايات المتحدة وأماكن أخرى للتأثير على الناخبين من خلال التضليل أو الفكاهة أو كليهما. وفي سلوفاكيا في عام 2023، مقاطع صوتية مزيفة انتحل شخصية مرشح يناقش خططًا لتزوير الانتخابات ورفع سعر البيرة قبل أيام من التصويت. في لويزيانا في عام 2022، قامت لجنة عمل سياسية إعلان ساخر فرض وجه مرشح لمنصب عمدة ولاية لويزيانا على ممثل يصوره كطالب في المدرسة الثانوية دون المستوى المطلوب.

ولم يقر الكونجرس بعد تشريعات بشأن الذكاء الاصطناعي في السياسة، وكالات فيدرالية ولم تتخذ سوى خطوات محدودة، تاركة معظم التنظيمات الأمريكية القائمة للولايات. وقد قامت أكثر من ثلث الولايات وضعوا قوانينهم الخاصة تنظيم استخدام الذكاء الاصطناعي في الحملات والانتخابات، بحسب المؤتمر الوطني للهيئات التشريعية للولايات.

بالإضافة إلى X، وضعت شركات التواصل الاجتماعي الأخرى أيضًا سياسات تتعلق بالوسائط الاصطناعية والمُتلاعب بها التي يتم مشاركتها على منصاتها. على سبيل المثال، يجب على المستخدمين على منصة الفيديو YouTube الكشف عما إذا كانوا قد استخدموا الذكاء الاصطناعي التوليدي لإنشاء مقاطع فيديو أو مواجهة التعليق.

___

تتلقى وكالة أسوشيتد برس الدعم من العديد من المؤسسات الخاصة لتعزيز تغطيتها التوضيحية للانتخابات والديمقراطية. تعرف على المزيد حول مبادرة الديمقراطية التي أطلقتها وكالة أسوشيتد برس هنا. وكالة أسوشيتد برس هي المسؤولة الوحيدة عن كافة المحتوى.

شاركها.
Exit mobile version