دنفر (ا ف ب) – أثناء صنع الذكاء الاصطناعي العناوين الرئيسية مع ChatGPT، خلف الكواليس، انتشرت التكنولوجيا بهدوء في الحياة اليومية – فحص السير الذاتية للوظائف، وطلبات استئجار الشقق، وحتى تحديد الرعاية الطبية في بعض الحالات.

في حين تبين أن عددًا من أنظمة الذكاء الاصطناعي تمارس التمييز، مما يؤدي إلى ترجيح كفة الميزان لصالح أعراق أو أجناس معينة أو دخل معين، إلا أن الرقابة الحكومية ضئيلة.

يتخذ المشرعون في سبع ولايات على الأقل تقلبات تشريعية كبيرة لتنظيم التحيز في الذكاء الاصطناعي، مما يملأ الفراغ الذي تركه تقاعس الكونجرس. تمثل هذه المقترحات بعض الخطوات الأولى في نقاش دام عقودًا حول الموازنة بين فوائد هذه التكنولوجيا الجديدة الغامضة والمخاطر الموثقة على نطاق واسع.

قال سوريش فينكاتاسوبرامانيان، الأستاذ في جامعة براون والذي شارك في تأليف مخطط البيت الأبيض لوثيقة حقوق الذكاء الاصطناعي: “إن الذكاء الاصطناعي يؤثر في الواقع على كل جزء من حياتك سواء كنت تعرف ذلك أم لا”.

“الآن، لن تهتم إذا كانت جميعها تعمل بشكل جيد. لكنهم لا يفعلون ذلك”.

وسوف يعتمد النجاح أو الفشل على عمل المشرعين على حل مشاكل معقدة أثناء التفاوض مع صناعة تبلغ قيمتها مئات المليارات من الدولارات وتنمو بسرعة أفضل تقاس بالسنوات الضوئية.

في العام الماضي، تم إقرار حوالي اثني عشر فقط من ما يقرب من 200 مشروع قانون يتعلق بالذكاء الاصطناعي تم تقديمها في مجالس الولايات ليصبح قانونًا، وفقًا لـ BSA The Software Alliance، الذي يدافع عن شركات البرمجيات.

وكانت مشاريع القوانين هذه، إلى جانب أكثر من 400 مشروع قانون يتعلق بالذكاء الاصطناعي تجري مناقشتها هذا العام، تهدف إلى حد كبير إلى تنظيم شرائح أصغر من الذكاء الاصطناعي. يتضمن ذلك ما يقرب من 200 استهداف للتزييف العميق، بما في ذلك مقترحات لـ شريط التزييف العميق الإباحية، مثل تلك الخاصة بتايلور سويفت غمرت وسائل الاعلام الاجتماعية. ويحاول آخرون كبح جماح روبوتات الدردشة، مثل ChatGPT، للتأكد من أنهم لا يصدرون تعليمات لصنع قنبلة، على سبيل المثال.

هذه منفصلة عن مشاريع القوانين السبعة التي سيتم تطبيقها عبر الصناعات لتنظيم التمييز في مجال الذكاء الاصطناعي – وهي واحدة من أكثر مشاكل التكنولوجيا انحرافًا وتعقيدًا – والتي تتم مناقشتها من كاليفورنيا إلى كونيتيكت.

ويقول أولئك الذين يدرسون ميل الذكاء الاصطناعي إلى التمييز، إن الدول متأخرة بالفعل في إنشاء حواجز الحماية. إن استخدام الذكاء الاصطناعي لاتخاذ قرارات تبعية – ما تسميه مشاريع القوانين “أدوات القرار الآلية” – أمر منتشر ولكنه مخفي إلى حد كبير.

تشير التقديرات إلى أن ما يصل إلى 83% من أصحاب العمل يستخدمون الخوارزميات للمساعدة في التوظيف؛ وهذا يمثل 99% لشركات Fortune 500، وفقًا للجنة تكافؤ فرص العمل.

ومع ذلك، فإن غالبية الأميركيين لا يدركون أن هذه الأدوات تُستخدم، كما يظهر استطلاع للرأي أجرته مؤسسة بيو للأبحاث، ناهيك عن ما إذا كانت الأنظمة متحيزة.

يمكن للذكاء الاصطناعي أن يتعلم التحيز من خلال البيانات التي تم تدريبه عليها، وعادةً ما تكون البيانات التاريخية التي يمكن أن تحتوي على حصان طروادة من التمييز الماضي.

قامت أمازون بإحباط مشروع خوارزمية التوظيف الخاص بها بعد أن تبين أنه يفضل المتقدمين الذكور منذ ما يقرب من عقد من الزمن. تم تدريب الذكاء الاصطناعي على تقييم السير الذاتية الجديدة من خلال التعلم من السير الذاتية السابقة – معظم المتقدمين من الذكور. على الرغم من أن الخوارزمية لم تكن تعرف جنس المتقدمين، إلا أنها خفضت مستوى السيرة الذاتية بكلمة “للنساء” أو التي أدرجت كليات البنات، ويرجع ذلك جزئيًا إلى عدم تمثيلهن في البيانات التاريخية التي تعلمت منها.

قالت كريستين ويبر، المحامية في دعوى جماعية: “إذا كنت تسمح للذكاء الاصطناعي بالتعلم من القرارات التي اتخذها المديرون الحاليون تاريخياً، وإذا كانت تلك القرارات قد فضلت تاريخياً بعض الأشخاص وحرمت آخرين، فهذا ما ستتعلمه التكنولوجيا”. دعوى قضائية تزعم أن نظام الذكاء الاصطناعي الذي يسجل المتقدمين للاستئجار يمارس التمييز ضد أولئك الذين كانوا من السود أو من ذوي الأصول الأسبانية.

تصف وثائق المحكمة إحدى المدعيات في الدعوى، ماري لويس، وهي امرأة سوداء، تقدمت بطلب لاستئجار شقة في ماساتشوستس وتلقت ردًا غامضًا: “إن خدمة الطرف الثالث التي نستخدمها لفحص جميع المستأجرين المحتملين رفضت إيجارك”.

عندما قدمت لويس مرجعين للمالك لإثبات أنها دفعت الإيجار مبكرًا أو في الوقت المحدد لمدة 16 عامًا، كما تقول سجلات المحكمة، تلقت ردًا آخر: “للأسف، نحن لا نقبل الطعون ولا يمكننا تجاوز نتيجة فحص المستأجر”.

وهذا الافتقار إلى الشفافية والمساءلة هو، جزئيا، ما تستهدفه مشاريع القوانين، في أعقاب اقتراح كاليفورنيا الفاشل في العام الماضي ــ أول محاولة شاملة لتنظيم تحيز الذكاء الاصطناعي في القطاع الخاص.

وبموجب مشاريع القوانين، يتعين على الشركات التي تستخدم أدوات اتخاذ القرار الآلية هذه إجراء “تقييمات التأثير”، بما في ذلك وصف لكيفية مساهمة الذكاء الاصطناعي في اتخاذ القرار، والبيانات التي تم جمعها، وتحليل مخاطر التمييز، إلى جانب شرح الضمانات التي توفرها الشركة. اعتمادًا على مشروع القانون، سيتم تقديم هذه التقييمات إلى الولاية أو يمكن للجهات التنظيمية أن تطلبها.

ستتطلب بعض مشاريع القوانين أيضًا من الشركات إخبار العملاء بأنه سيتم استخدام الذكاء الاصطناعي في اتخاذ القرار، والسماح لهم بإلغاء الاشتراك، مع بعض التحذيرات.

وقال كريج أولبرايت، نائب الرئيس الأول للعلاقات الحكومية الأمريكية في مجموعة الضغط الصناعية BSA، إن أعضاء المجموعة يؤيدون بشكل عام بعض الخطوات المقترحة، مثل تقييمات الأثر.

“إن التكنولوجيا تتحرك بشكل أسرع من القانون، ولكن هناك في الواقع فوائد للحاق القانون. وقال أولبرايت: “لأنه بعد ذلك تفهم (الشركات) ما هي مسؤولياتها، يمكن أن يكون لدى المستهلكين ثقة أكبر في التكنولوجيا”.

لكنها كانت بداية باهتة للتشريع. لقد تعثر بالفعل مشروع قانون في ولاية واشنطن في اللجنة، كما مات اقتراح كاليفورنيا الذي تم تقديمه في عام 2023، والذي تم تصميم العديد من المقترحات الحالية على غراره.

قامت عضوة جمعية كاليفورنيا، ريبيكا باور كاهان، بتجديد تشريعاتها التي فشلت في العام الماضي بدعم من بعض شركات التكنولوجيا، مثل Workday وMicrosoft، بعد إسقاط شرط قيام الشركات بتقديم تقييمات تأثيرها بشكل روتيني. الولايات الأخرى التي سيتم فيها طرح مشاريع القوانين، أو من المتوقع أن يتم طرحها، هي كولورادو ورود آيلاند وإلينوي وكونيتيكت وفيرجينيا وفيرمونت.

وقال فينكاتاسوبرامانيان من جامعة براون إنه في حين أن مشاريع القوانين هذه تعد خطوة في الاتجاه الصحيح، إلا أن تقييمات التأثير وقدرتها على اكتشاف التحيز تظل غامضة. ومن دون إمكانية الوصول بشكل أكبر إلى التقارير – والتي تحدها العديد من مشاريع القوانين – فمن الصعب أيضًا معرفة ما إذا كان الشخص قد تعرض للتمييز من قبل الذكاء الاصطناعي.

هناك طريقة أكثر كثافة ودقة لتحديد التمييز، وهي المطالبة بعمليات تدقيق التحيز – وهي اختبارات لتحديد ما إذا كان الذكاء الاصطناعي يمارس التمييز أم لا – ونشر النتائج للعامة. وهذا هو المكان الذي تتراجع فيه الصناعة، بحجة أن ذلك من شأنه أن يكشف الأسرار التجارية.

متطلبات الاختبار الروتيني لنظام الذكاء الاصطناعي ليست موجودة في معظم المقترحات التشريعية، وجميعها تقريبًا لا يزال أمامها طريق طويل للأمام. ومع ذلك، فهي بداية صراع المشرعين والناخبين مع ما أصبح، وسيظل، تكنولوجيا دائمة الحضور.

“إنه يغطي كل شيء في حياتك. قال فينكاتاسوبرامانيان: “بموجب ذلك فقط يجب أن تهتم”.

——-

ساهم مراسل وكالة أسوشيتد برس تران نجوين في سكرامنتو ، كاليفورنيا.

شاركها.