واشنطن (أ ف ب) – كانت اللجنة الوطنية الديمقراطية تراقب في وقت سابق من هذا العام الحملات على مستوى البلاد وهي تختبر الذكاء الاصطناعي. لذا تقدمت المنظمة بطلب إلى مجموعة من لجان الحملات الحزبية ذات النفوذ: التوقيع على المبادئ التوجيهية التي تلزمهم باستخدام التكنولوجيا بطريقة “مسؤولة”.
ولم تكن مسودة الاتفاقية، التي حصلت وكالة أسوشيتد برس على نسخة منها، مليئة بالأفكار الثورية. وطلبت من الحملات التحقق من عمل أدوات الذكاء الاصطناعي والحماية من التحيزات وتجنب استخدام الذكاء الاصطناعي لإنشاء محتوى مضلل.
وجاء في المسودة: “هدفنا هو استخدام هذه التكنولوجيا الجديدة بشكل فعال وأخلاقي، وبطريقة تعمل على تعزيز – وليس تقويض – القيم التي نعتنقها في حملاتنا”.
لم تذهب الخطة إلى أي مكان.
وبدلاً من تعزيز الاتفاق، أثارت المبادئ التوجيهية جدلاً حول قيمة مثل هذه التعهدات، وخاصة تلك التي تحكم التكنولوجيا سريعة التطور. ومن بين المخاوف التي عبرت عنها منظمات الحملة الديمقراطية: مثل هذا التعهد قد يعيق قدرتهم على نشر الذكاء الاصطناعي ويمكن أن يؤدي إلى إبعاد المانحين الذين لهم علاقات بصناعة الذكاء الاصطناعي. كما انزعج بعض مسؤولي اللجنة لأن اللجنة الوطنية الديمقراطية منحتهم بضعة أيام فقط للموافقة على المبادئ التوجيهية.
سلط زوال الاقتراح الضوء على الانقسامات الداخلية حول تكتيكات الحملة الانتخابية وتكتيكات الحزب عدم اليقين بشأن كيفية الاستخدام الأمثل للذكاء الاصطناعي وسط تحذيرات من الخبراء من أن التكنولوجيا تزيد من انتشار المعلومات المضللة.
وقالت هانا مولدفين، المتحدثة باسم اللجنة الوطنية الديمقراطية، إن المجموعة لن تتخلى عن إيجاد توافق في الآراء.
وقالت إن اللجنة الوطنية الديمقراطية “ستواصل العمل مع لجاننا الشقيقة لمناقشة الأفكار والقضايا المهمة للحملات الديمقراطية والناخبين الأمريكيين، بما في ذلك الذكاء الاصطناعي”.
وقال مولدافين: “ليس من غير المألوف أن تتغير الأفكار والخطط، خاصة في خضم عام انتخابي مزدحم، وأي وثائق حول هذا الموضوع تعكس المحادثات المبكرة والمستمرة”، مضيفًا أن “اللجنة الوطنية الديمقراطية وشركائنا يأخذون الفرص والتحديات على محمل الجد”. مقدم من منظمة العفو الدولية.”
يأتي هذا الجدل في الوقت الذي تنشر فيه الحملات بشكل متزايد الذكاء الاصطناعي – أنظمة الكمبيوتر، أو البرامج، أو العمليات التي تحاكي جوانب العمل البشري والإدراك – لتحسين أعباء العمل. يتضمن ذلك استخدام نماذج لغوية كبيرة لكتابة رسائل البريد الإلكتروني لجمع التبرعات، وإرسال رسائل نصية داعمة، وإنشاء روبوتات الدردشة للإجابة على أسئلة الناخبين.
ومن المتوقع أن يستمر هذا الاتجاه مع اقتراب الانتخابات العامة في نوفمبر، مع تحول الحملات إلى أدوات الذكاء الاصطناعي التوليدية فائقة الشحن لإنشاء النصوص والصور، بالإضافة إلى استنساخ الأصوات البشرية وإنشاء مقاطع فيديو بسرعة البرق.
اللجنة الوطنية الجمهورية تستخدم الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي في إعلان تلفزيوني العام الماضي تنبأ بمستقبل بائس في عهد الرئيس جو بايدن.
ومع ذلك، فإن الكثير من هذا التبني قد طغت عليه المخاوف بشأن كيفية استخدام الحملات للذكاء الاصطناعي بطرق تخدع الناخبين. وحذر الخبراء من أن الذكاء الاصطناعي أصبح قويا للغاية لدرجة أنه جعل من السهل إنشاء مقاطع فيديو ومقتطفات صوتية “مزيفة للغاية” وغيرها من الوسائط التي تستهدف المرشحين المعارضين. بعض الدول لديها صدر التشريع تنظيم طريقة استخدام الذكاء الاصطناعي التوليدي. لكن الكونجرس فشل حتى الآن في إقرار أي مشاريع قوانين تنظم الذكاء الاصطناعي على المستوى الفيدرالي.
في غياب التنظيم، سعت اللجنة الوطنية الديمقراطية إلى الحصول على مجموعة من المبادئ التوجيهية التي يمكن الإشارة إليها كدليل على أن الحزب يأخذ على محمل الجد تهديد الذكاء الاصطناعي ووعوده. وأرسلت الاقتراح في مارس إلى لجان الحملة الديمقراطية الخمس التي تسعى لانتخاب المرشحين لمجلس النواب ومجلس الشيوخ وحكام الولايات والمرشحين التشريعيين والمدعين العامين للولاية لمناصبهم، وفقًا لمسودة الاتفاقية.
كان الهدف هو أن توافق كل لجنة على قائمة من حواجز الحماية الخاصة بالذكاء الاصطناعي، واقترحت اللجنة الوطنية الديمقراطية إصدار بيان مشترك يعلن أن مثل هذه المبادئ التوجيهية ستضمن أن الحملات يمكن أن تستخدم “الأدوات التي تحتاجها لمنع انتشار المعلومات المضللة والمعلومات المضللة، مع تمكين الحملات بشكل آمن”. واستخدام الذكاء الاصطناعي التوليدي بشكل مسؤول لإشراك المزيد من الأمريكيين في ديمقراطيتنا.
وكانت اللجنة الديمقراطية تأمل في أن يوقع الرئيس خايمي هاريسون وزعماء المنظمات الأخرى على البيان.
وقال نشطاء ديمقراطيون إن الاقتراح حظي بجلجل. أعرب بعض كبار القادة في اللجان عن قلقهم من أن الاتفاق قد يكون له عواقب غير متوقعة، وربما يحد من كيفية استخدام الحملات للذكاء الاصطناعي، وفقًا للعديد من الناشطين الديمقراطيين المطلعين على التواصل.
وقد يرسل ذلك رسالة خاطئة إلى شركات التكنولوجيا والمديرين التنفيذيين الذين يعملون في مجال الذكاء الاصطناعي، والذين يساعد الكثير منهم في ملء خزائن الحملات الانتخابية خلال سنوات الانتخابات.
بعض المانحين الأكثر غزارة للحزب الديمقراطي هم كبار رواد الأعمال في مجال التكنولوجيا والمبشرين بالذكاء الاصطناعي، بما في ذلك سام ألتمان، الرئيس التنفيذي لشركة OpenAI، وإريك شميدت، الرئيس التنفيذي السابق لشركة جوجل.
تبرع ألتمان بأكثر من 200 ألف دولار لحملة بايدن ولجنته الديمقراطية المشتركة لجمع التبرعات منذ بداية العام الماضي، وفقًا لبيانات لجنة الانتخابات الفيدرالية، وتجاوزت مساهمات شميدت لتلك المجموعات 500 ألف دولار خلال نفس الوقت.
وتبرع اثنان آخران من مؤيدي الذكاء الاصطناعي، داستن موسكوفيتز، المؤسس المشارك لفيسبوك، وريد هوفمان، المؤسس المشارك لـ LinkedIn، بأكثر من 900 ألف دولار للجنة جمع التبرعات المشتركة لبايدن في هذه الدورة، وفقًا لنفس البيانات.
خطة اللجنة الوطنية الديمقراطية فاجأت اللجان لأنها جاءت مع القليل من التفسير، بخلاف الرغبة في إقناع كل لجنة بالموافقة على قائمة أفضل الممارسات في غضون أيام قليلة، حسبما قال العديد من الناشطين الديمقراطيين الذين تحدثوا بشرط عدم الكشف عن هويتهم لأنهم كانوا ر أذن لمناقشة هذه المسألة. قال مساعدو حملة الكونغرس الديمقراطي ولجان حملة مجلس الشيوخ الديمقراطي إنهم شعروا بالاندفاع بسبب الجدول الزمني للحزب الديمقراطي الذي حثهم على التوقيع بسرعة.
ولم يستجب ممثلو جمعية المحامين العامين الديمقراطيين لطلب وكالة أسوشيتد برس للتعليق. ورفض المتحدثون باسم جمعية الحكام الديمقراطيين ولجنة الحملة التشريعية الديمقراطية التعليق.
ولم ترد اللجنة الوطنية للحزب الجمهوري على الأسئلة المتعلقة بإرشاداتها المتعلقة بالذكاء الاصطناعي. كما رفضت حملة بايدن التعليق عندما سئلت عن جهود اللجنة الوطنية الديمقراطية.
غطت الاتفاقية المكونة من أربع صفحات – “المبادئ التوجيهية بشأن الاستخدام المسؤول للذكاء الاصطناعي التوليدي في الحملات” – كل شيء بدءًا من ضمان عدم الثقة في أنظمة الذكاء الاصطناعي دون فحص بشري لعملها إلى إخطار الناخبين عندما يتفاعلون مع المحتوى أو الأنظمة التي يولدها الذكاء الاصطناعي.
“نظرًا لأن الارتفاع الهائل في الذكاء الاصطناعي التوليدي يحول كل ركن من أركان الحياة العامة – بما في ذلك الحملات السياسية – فمن المهم أكثر من أي وقت مضى أن نحد من التهديد المحتمل لهذه التكنولوجيا الجديدة على حقوق الناخبين، وبدلاً من ذلك الاستفادة منه لبناء حملات مبتكرة وفعالة وأقوى. وقال الاقتراح: “ديمقراطية أكثر شمولاً”.
تم تقسيم المبادئ التوجيهية إلى خمسة أقسام تضمنت عناوين مثل “عرض البدائل البشرية، والنظر والاحتياطي” و”تقديم الإشعار والتفسير”. وكانت القواعد المقترحة تشترط على اللجان التأكد من أن “الشخص الحقيقي يجب أن يكون مسؤولاً عن الموافقة على المحتوى الناتج عن الذكاء الاصطناعي وأن يكون مسؤولاً عن كيفية نشره ومكانه ولمن”.
يوضح التوجيه كيف “يجب أن يكون المستخدمون على دراية دائمًا عند تفاعلهم مع روبوت الذكاء الاصطناعي” وشدد على أن أي صور أو مقطع فيديو تم إنشاؤه بواسطة الذكاء الاصطناعي “يجب وضع علامة عليها” على هذا النحو. وشددت على أن الحملات يجب أن تستخدم الذكاء الاصطناعي لمساعدة الموظفين، وليس استبدالهم.
وجاء في الاتفاقية أن “الحملات هي عمل يحركه الإنسان ويحفزه الإنسان”. “استخدم مكاسب الكفاءة لتعليم المزيد من الناخبين والتركيز بشكل أكبر على مراقبة الجودة والاستدامة.”
كما حثت الحملات على عدم استخدام “الذكاء الاصطناعي التوليدي لإنشاء محتوى مضلل. فترة.”
___
هذه القصة جزء من سلسلة وكالة أسوشيتد برس، “حملة الذكاء الاصطناعي”، التي تستكشف تأثير الذكاء الاصطناعي في الدورة الانتخابية لعام 2024.
___
تتلقى وكالة أسوشيتد برس مساعدة مالية من شبكة أوميديار لدعم تغطية الذكاء الاصطناعي وتأثيره على المجتمع. AP هي المسؤولة الوحيدة عن جميع المحتويات. ابحث عن نقاط الوصول المعايير للعمل مع المؤسسات الخيرية، قائمة الداعمين ومناطق التغطية الممولة على AP.org
____
لدى وكالة Associated Press وOpenAI اتفاقية الترخيص والتكنولوجيا السماح لـ OpenAI بالوصول إلى جزء من أرشيفات النصوص الخاصة بـ AP.