نيويورك (أ ف ب) – مع اقتراب الانتخابات عالية المخاطر في الولايات المتحدة والاتحاد الأوروبي، يمكن بسهولة استخدام أدوات الذكاء الاصطناعي المتاحة للجمهور لإنتاج أكاذيب انتخابية مقنعة في أصوات الشخصيات السياسية الرائدة، حسبما ذكرت مجموعة الحقوق المدنية الرقمية يوم الجمعة.

باحثون في واشنطن العاصمة مركز مكافحة الكراهية الرقمية اختبار ستة من الأكثر شعبية أدوات استنساخ الصوت بالذكاء الاصطناعي لمعرفة ما إذا كانوا سينتجون مقاطع صوتية لخمسة بيانات كاذبة حول الانتخابات بأصوات ثمانية سياسيين أمريكيين وأوروبيين بارزين.

وفي إجمالي 240 اختبارًا، أنتجت الأدوات نسخًا صوتية مقنعة في 193 حالة، أو 80% من الحالات، حسبما وجدت المجموعة. وفي أحد المقاطع، يقول الرئيس الأمريكي المزيف جو بايدن إن مسؤولي الانتخابات يحسبون كل صوت من أصواته مرتين. وفي مقطع آخر، يحذر الرئيس الفرنسي المزيف إيمانويل ماكرون المواطنين من التصويت بسبب تهديدات بوجود قنابل في مراكز الاقتراع.

تكشف النتائج عن فجوة ملحوظة في الضمانات ضد استخدام الصوت الناتج عن الذكاء الاصطناعي لتضليل الناخبين، وهو تهديد يتزايد بشكل متزايد يقلق الخبراء حيث أصبحت التكنولوجيا متقدمة ويمكن الوصول إليها. في حين أن بعض الأدوات تحتوي على قواعد أو حواجز تقنية لمنع توليد معلومات مضللة عن الانتخابات، فقد وجد الباحثون أن العديد من هذه العقبات كان من السهل التحايل عليها من خلال حلول سريعة.

استجابت شركة واحدة فقط من الشركات التي استخدم الباحثون أدواتها بعد طلبات متعددة للتعليق. وقالت شركة ElevenLabs إنها تبحث باستمرار عن طرق لتعزيز ضماناتها.

ماذا تعرف عن انتخابات 2024؟

ومع وجود عدد قليل من القوانين المعمول بها لمنع إساءة استخدام هذه الأدوات، فإن افتقار الشركات إلى التنظيم الذاتي يجعل الناخبين عرضة للخطر الخداع الناتج عن الذكاء الاصطناعي في سنة من انتخابات ديمقراطية هامة حول العالم. الناخبون الأوروبيون يتوجهون إلى صناديق الاقتراع في الانتخابات البرلمانية في أقل من أسبوع، وتجري الانتخابات التمهيدية في الولايات المتحدة قبل الانتخابات الرئاسية هذا الخريف.

وقال عمران أحمد، الرئيس التنفيذي للمركز: “من السهل جدًا استخدام هذه المنصات لخلق الأكاذيب وإجبار السياسيين على التراجع عن إنكار الأكاذيب مرارًا وتكرارًا”. “لسوء الحظ، يتم بيع ديمقراطياتنا بسبب الجشع السافر من قبل شركات الذكاء الاصطناعي التي ترغب بشدة في أن تكون أول من يقوم بالتسويق… على الرغم من حقيقة أنها تعرف أن منصاتها ببساطة ليست آمنة”.

أجرى المركز – وهو منظمة غير ربحية لها مكاتب في الولايات المتحدة والمملكة المتحدة وبلجيكا – البحث في شهر مايو. استخدم الباحثون أداة التحليل عبر الإنترنت Semrush لتحديد أدوات استنساخ الصوت الستة المتاحة للجمهور والتي تتمتع بحركة مرور عضوية شهرية على الويب: ElevenLabs، وSpeechify، وPlayHT، وDescript، وInvideo AI، وVeed.

بعد ذلك، قاموا بتقديم مقاطع صوتية حقيقية للسياسيين وهم يتحدثون. ودفعوا الأدوات إلى انتحال أصوات السياسيين والإدلاء بخمسة تصريحات لا أساس لها من الصحة.

وحذر أحد البيانات الناخبين من البقاء في منازلهم وسط تهديدات بوجود قنابل في مراكز الاقتراع. أما الأربعة الآخرون فكانوا عبارة عن اعترافات مختلفة – بالتلاعب في الانتخابات، والكذب، واستخدام أموال الحملة الانتخابية لتغطية نفقات شخصية، وتناول حبوب قوية تسبب فقدان الذاكرة.

بالإضافة إلى بايدن وماكرون، صنعت الأدوات نسخًا واقعية من أصوات نائبة الرئيس الأمريكي كامالا هاريس، والرئيس الأمريكي السابق دونالد ترامب، ورئيس وزراء المملكة المتحدة ريشي سوناك، وزعيم حزب العمال في المملكة المتحدة كير ستارمر، ورئيسة المفوضية الأوروبية أورسولا فون دير لاين والاتحاد الأوروبي. مفوض السوق الداخلية تييري بريتون

وقال التقرير: “لم يكن لدى أي من أدوات استنساخ الصوت بالذكاء الاصطناعي إجراءات أمان كافية لمنع استنساخ أصوات السياسيين أو إنتاج معلومات مضللة عن الانتخابات”.

تتطلب بعض الأدوات – Descript وInvideo AI وVeed – من المستخدمين تحميل عينة صوتية فريدة قبل استنساخ الصوت، وهي وسيلة وقائية لمنع الأشخاص من استنساخ صوت ليس ملكهم. ومع ذلك، وجد الباحثون أنه يمكن التحايل على هذا الحاجز بسهولة عن طريق توليد عينة فريدة باستخدام أداة استنساخ صوت مختلفة تعمل بالذكاء الاصطناعي.

إحدى الأدوات، Invideo AI، لم تقم بإنشاء البيانات المزيفة التي طلبها المركز فحسب، بل قامت باستقراءها لخلق المزيد من المعلومات المضللة.

عند إنتاج المقطع الصوتي الذي يأمر باستنساخ صوت بايدن لتحذير الناس من تهديد بوجود قنبلة في صناديق الاقتراع، أضافت العديد من الجمل الخاصة بها.

وجاء في المقطع الصوتي المزيف بصوت بايدن: “هذه ليست دعوة للتخلي عن الديمقراطية، بل نداء لضمان السلامة أولا”. “الانتخابات، الاحتفال بحقوقنا الديمقراطية، تم تأجيلها فقط، ولم يتم إنكارها”.

بشكل عام، فيما يتعلق بالسلامة، قام Speechify وPlayHT بأداء أسوأ الأدوات، حيث أنتجا صوتًا مزيفًا يمكن تصديقه في جميع الاختبارات الأربعين التي أجراها، حسبما وجد الباحثون.

كان أداء ElevenLabs هو الأفضل وكانت الأداة الوحيدة التي منعت استنساخ أصوات السياسيين في المملكة المتحدة والولايات المتحدة. ومع ذلك، قال التقرير إن الأداة لا تزال تسمح بإنشاء تسجيلات صوتية مزيفة لأصوات سياسيين بارزين في الاتحاد الأوروبي.

وقالت ألكساندرا بيدراسزوسكا، رئيسة سلامة الذكاء الاصطناعي في ElevenLabs، في بيان عبر البريد الإلكتروني إن الشركة ترحب بالتقرير والوعي الذي يثيره حول التلاعب بالذكاء الاصطناعي.

وقالت إن ElevenLabs تدرك أن هناك المزيد من العمل الذي يتعين القيام به وتقوم “بتحسين قدرات الضمانات لدينا باستمرار”، بما في ذلك ميزة الحظر الخاصة بالشركة.

وقالت: “نأمل أن تحذو منصات الذكاء الاصطناعي الصوتية الأخرى هذا الحذو وتطرح إجراءات مماثلة دون تأخير”.

ولم تستجب الشركات الأخرى المذكورة في التقرير لطلبات التعليق عبر البريد الإلكتروني.

وتأتي هذه النتائج بعد أن تم بالفعل استخدام المقاطع الصوتية التي تم إنشاؤها بواسطة الذكاء الاصطناعي في محاولات التأثير على الناخبين في الانتخابات في جميع أنحاء العالم.

في خريف عام 2023، قبل أيام قليلة من الانتخابات البرلمانية في سلوفاكيا، تمت مشاركة مقاطع صوتية تشبه صوت رئيس الحزب الليبرالي على نطاق واسع على وسائل التواصل الاجتماعي. يُزعم أن الصور المزيفة قد صورته وهو يتحدث عن ارتفاع أسعار البيرة وتزوير التصويت.

في وقت سابق من هذا العام، تم إنشاء مكالمات آلية بواسطة الذكاء الاصطناعي يقلد صوت بايدن وطلب من الناخبين الأساسيين في نيو هامبشاير البقاء في منازلهم و”الاحتفاظ” بأصواتهم لشهر نوفمبر. أ نيو اورليانز الساحر الذي قام بإنشاء التسجيل الصوتي لمستشار سياسي ديمقراطي، أوضح لوكالة أسوشييتد برس كيف قام بذلك باستخدام برنامج ElevenLabs.

يقول الخبراء إن الصوت الناتج عن الذكاء الاصطناعي كان بمثابة تفضيل مبكر للممثلين السيئين، ويرجع ذلك جزئيًا إلى تحسن التكنولوجيا بسرعة كبيرة. هناك حاجة إلى بضع ثوانٍ فقط من الصوت الحقيقي لإنشاء نسخة مزيفة نابضة بالحياة.

ومع ذلك، فإن الأشكال الأخرى من الوسائط التي يولدها الذكاء الاصطناعي تثير قلق الخبراء والمشرعين وقادة صناعة التكنولوجيا. OpenAI، الشركة التي تقف وراء ChatGPT وأدوات الذكاء الاصطناعي التوليدية الشائعة الأخرى، كشف يوم الخميس أنها رصدت وأوقفت خمس حملات عبر الإنترنت استخدمت تقنيتها للتأثير على الرأي العام بشأن القضايا السياسية.

قال أحمد، الرئيس التنفيذي لمركز مكافحة الكراهية الرقمية، إنه يأمل أن تعمل منصات استنساخ الصوت بالذكاء الاصطناعي على تشديد الإجراءات الأمنية وأن تكون أكثر استباقية فيما يتعلق بالشفافية، بما في ذلك نشر مكتبة من المقاطع الصوتية التي قاموا بإنشائها حتى يمكن التحقق منها عند وجود صوت مشبوه. ينتشر عبر الإنترنت.

وقال أيضا إن المشرعين بحاجة إلى التحرك. ولم يصدر الكونجرس الأمريكي بعد تشريعًا ينظم الذكاء الاصطناعي في الانتخابات. وفي حين أقر الاتحاد الأوروبي قانونًا واسع النطاق للذكاء الاصطناعي من المقرر أن يدخل حيز التنفيذ خلال العامين المقبلين، إلا أنه لا يتناول أدوات استنساخ الصوت على وجه التحديد.

قال أحمد: “يحتاج المشرعون إلى العمل لضمان وجود الحد الأدنى من المعايير”. “إن التهديد الذي تشكله المعلومات المضللة على انتخاباتنا لا يقتصر فقط على احتمال التسبب في حادث سياسي بسيط، بل يجعل الناس لا يثقون بما يرونه ويسمعونه، كل هذا يتوقف.”

___

تتلقى وكالة أسوشيتد برس الدعم من العديد من المؤسسات الخاصة لتعزيز تغطيتها التوضيحية للانتخابات والديمقراطية. تعرف على المزيد حول مبادرة الديمقراطية في AP هنا. AP هي المسؤولة الوحيدة عن جميع المحتويات.

شاركها.
Exit mobile version