- تقوم شركات الذكاء الاصطناعي بتعديل عروضها وإرشاداتها الانتخابية قبل يوم الانتخابات.
- أطلقت شركة Perplexity مركزًا للمعلومات الانتخابية يحتوي على معلومات عن المرشحين، ولوجستيات التصويت، والنتائج.
- وفي الوقت نفسه، تعمل جوجل على تقييد المحتوى الانتخابي الناتج عن الذكاء الاصطناعي لتجنب المخاطر التي تصاحبه.
أسبوع الانتخابات وصل أخيرا. وهذه المرة، سيكون بمثابة اختبار مهم لشركات الذكاء الاصطناعي الراغبة في تزويد مستخدميها بالمعلومات المتعلقة بالانتخابات وتحديثات حول نتائج التصويت.
لم يكن ChatGPT موجودًا خلال الانتخابات الرئاسية الأخيرة في عام 2020. إنه إطلاق منذ عامين أطلقت موجة من روبوتات الدردشة والأدوات الإبداعية التي تعمل بالذكاء الاصطناعي والتي تم دمجها في المنتجات الاستهلاكية الشائعة مثل بحث Google.
قبل الانتخابات، كان على الشركات التي تقف وراء المنتجات أن تقرر ما هي القيود، إن وجدت، التي ستطبقها على المحتوى الناتج عن الذكاء الاصطناعي والمتعلق بالانتخابات، وتحليل المخاطر المرتبطة بها.
البعض، مثل شركة الذكاء الاصطناعي الناشئة Perplexity، يميلون إليها بشدة.
أطلق محرك بحث الذكاء الاصطناعي “مركز معلومات الانتخابات” المخصص الذي يستخدم الذكاء الاصطناعي لتوفير معلومات حول الانتخابات المقبلة وتتبع النتائج. يتضمن المركز تفاصيل حول متطلبات التصويت، وكيفية العثور على مكان الاقتراع وأوقات الاقتراع، وتحليل ملخص بالذكاء الاصطناعي حول إجراءات الاقتراع والمرشحين، حسبما كتبت الشركة في إعلان.
وقالت سارة بلاتنيك، المتحدثة باسم Perplexity، لموقع Business Insider: “تستخدم شركة Perplexity عملية تسمى “الاسترجاع المعزز للجيل” لتحديد المعلومات ذات الصلة وتلخيصها بطريقة مصممة خصيصًا لاستعلام المستخدم”.
وقالت الشركة إنه بالنسبة للأسئلة المتعلقة بالانتخابات، تستخدم الشركة “مجموعة منسقة” من المصادر غير الحزبية والتي تم التحقق من صحتها. وقال بلاتنيك لـ BI: إن المركز المنفصل لا يستخدم المعرفة المخزنة من بيانات التدريب الخاصة بالنموذج في استجاباته، مما يساعد على تقليل الهلوسة.
ستبدأ شركة Perplexity أيضًا في تقديم تحديثات مباشرة حول الانتخابات يوم الثلاثاء باستخدام بيانات من وكالة Associated Press. وقال بلاتنيك إن الردود الأخرى ستستخدم معلومات من Democracy Works وغيرها من المصادر الواقعية غير الحزبية مثل Ballotpedia والمؤسسات الإخبارية.
وقال ألون يامين، المؤسس المشارك والرئيس التنفيذي لمنصة تحليل النصوص المستندة إلى الذكاء الاصطناعي Copyleaks، إن نهج Perplexity “يمكن أن يساعد بالتأكيد في تصفية المحتوى ووضعه في سياقه”، مما يساعد المستخدمين على الوصول إلى مصادر موثوقة.
وقال يامين إن هناك فوائد محتملة تأتي من استخدام الذكاء الاصطناعي للحصول على معلومات الانتخابات. يمكن للذكاء الاصطناعي توفير تحديثات في الوقت الفعلي والمساعدة في تحديد الاتجاهات ومشاعر الناخبين والقضايا الرئيسية.
ومع ذلك، قال يامين إن احتمال حدوث هلوسة الذكاء الاصطناعي ومشكلات الدقة يمثل مخاطر.
الشركات الأخرى تتخذ أساليب مختلفة. ستواصل OpenAI دمج الاستجابات المتعلقة بالانتخابات في ChatGPT مع توفير بعض الميزات الإضافية في ضوء الانتخابات.
بدءًا من الخامس من نوفمبر، سيرى أولئك الذين يسألون ChatGPT عن الاستعلامات عن نتائج الانتخابات رسالة تشجع المستخدمين على التحقق من مصادر مثل Associated Press و Reuters، أو مجالس الانتخابات الحكومية والمحلية للحصول على “المعلومات الأكثر اكتمالًا وحداثة”. قالت الشركة في منشور تم تحديثه في 31 أكتوبر.
وقالت OpenAI إنها “تختبر بشكل نشط الضمانات” التي تم وضعها خلال العام الماضي وتراقب أي مشكلات. وقالت أيضًا إنها ستواصل تعديل إجراءات الحماية الخاصة بها، والتي تشمل الشفافية حول المحتوى الناتج عن الذكاء الاصطناعي ومنع روبوتات الدردشة من التظاهر بأنهم أشخاص حقيقيون.
سيقوم ChatGPT أيضًا بتوجيه المستخدمين إلى موقع معلومات التصويت الأمريكي CanIVote.org عند طرح الأسئلة الإجرائية المتعلقة بالانتخابات.
وبالمثل، طبق كلود من Anthropic ميزة منبثقة تسمح للمستخدمين الذين يطلبون معلومات التصويت بإعادة توجيههم إلى TurboVote، وهو مورد غير حزبي من Democracy Works، حسبما كتب في منشور.
لدى Anthropic حواجز حماية أخرى، بما في ذلك منع المستخدمين من استخدامها للترويج لمرشح أو قضية معينة. وقالت إنها ستمنع أيضًا استخدام برنامج الدردشة الآلي لتوليد معلومات مضللة حول قوانين الانتخابات أو المرشحين أو الموضوعات ذات الصلة. وقالت الشركة في منشورها إن المخرجات ستقتصر على النص فقط للمساعدة في القضاء على “مخاطر التزييف العميق المتعلق بالانتخابات”.
في حين أن تحديثات الانتخابات المباشرة قد تكون مفيدة للمستخدمين، فإن المحتوى الانتخابي الناتج عن الذكاء الاصطناعي يشكل عددًا من المخاطر.
وقال يامين إن الذكاء الاصطناعي يمكن أن ينشر معلومات متحيزة، ويسيء تفسير البيانات، ويخلق روايات كاذبة. وأضاف أيضًا أن هذه النماذج “بجودة البيانات التي تم تدريبهم عليها فقط”، مما يفتح خطر الاستجابات الناتجة عن الذكاء الاصطناعي والتي تعكس تحيز البيانات التي تم تدريبهم عليها.
وقال يامين لـ BI: إن سوء الفهم يمكن أن يتضخم إذا أساء الذكاء الاصطناعي تفسير المعلومات وقدم نتائج غير دقيقة، خاصة في بيئة انتخابية سريعة الحركة وتتم متابعتها عن كثب.
جوجل، التي شهدت بعض إخفاقات الذكاء الاصطناعي التي حظيت بتغطية إعلامية واسعة النطاق من خلال نظرة عامة على Gemini AI وAI، اختارت تطبيق قيود على ما يمكن للمستخدمين أن يطلبوه من منتجات الذكاء الاصطناعي الخاصة بها بشأن الانتخابات. قالت شركة جوجل إنها تقيد برنامج الدردشة الآلي Gemini الخاص بها من الإجابة على الأسئلة المتعلقة انتخابات “من كثرة الحذر.”
لم يؤدي بحث مماثل على منتج البحث الرئيسي لجوجل يوم الاثنين إلى ظهور ملخص نظرة عامة على الذكاء الاصطناعي، والذي يعرض سلسلة “أهم القصص” للقصص من الناشرين.
لم تستجب Google على الفور لطلب التعليق من Business Insider.
صرح براد كارسون، المؤسس المشارك ورئيس منظمة “أميركيون من أجل الابتكار المسؤول” غير الربحية، لموقع BI أنه على الرغم من أن نهج Google جدير بالثناء، إلا أنه ليس حلاً عالميًا للمشكلة.
وقال كارسون إن مكافحة المعلومات المضللة “ليست مهمة سهلة”، وبينما من الذكاء أن تحاول الشركات بذل المزيد من الجهود للحد من المعلومات المضللة، يجب على الحكومة العمل على تشريعات تلزم شركات الذكاء الاصطناعي بتصنيف المعلومات التي تقدمها للمستخدمين بوضوح.
وقال كارسون: “أشعر أن المنتجات الأخرى من المحتمل أن تسد الفجوة التي ستخليها جوجل، لكنني أعتقد أنه من مسؤولية جوجل أن تحاول التراجع قليلاً عن هذا”.