كامبريدج ، ماساتشوستس (AP) – بعد التراجع عن برامج تنوعها وبرامج الأسهم والإدماج في مكان العمل ، يمكن أن تواجه شركات التكنولوجيا الآن حسابًا ثانيًا على عمل DEI في منتجات AI.
في البيت الأبيض والكونغرس الذي يقوده الجمهوريين ، استبدل “استيقظ الذكاء الاصطناعي” التمييز الخوارزمية الضارة كمشكلة تحتاج إلى إصلاح. الجهود السابقة “لدفع الأسهم” في تطوير الذكاء الاصطناعى والحد من إنتاج “المخرجات الضارة والمنحازة” هي هدف للتحقيق ، وفقًا لما ذكرته مذكرات الاستدعاء المرسلة إلى أمازون وجوجل وميثا وميكروسوفت و Openai و 10 شركات تقنية أخرى الشهر الماضي من قبل اللجنة القضائية لمجلس النواب.
وقد حذف الفرع القياسي لإدارة التجارة الأمريكية الإشارات من العدالة والسلامة و “الذكاء الاصطناعى المسؤول” في جاذبيتها للتعاون مع الباحثين الخارجيين. بدلاً من ذلك ، يوجه العلماء التركيز على “الحد من التحيز الأيديولوجي” بطريقة من شأنها “تمكين الإنسان المزدهر والتنافسية الاقتصادية” ، وفقًا لنسخة من الوثيقة التي حصلت عليها أسوشيتد برس.
في بعض النواحي ، اعتاد عمال التكنولوجيا على مجموعة من الأولويات التي تعتمد على واشنطن التي تؤثر على عملهم.
لكن التحول الأخير أثار مخاوف بين الخبراء في هذا المجال ، بما في ذلك عالم الاجتماع بجامعة هارفارد إليس مونك ، الذي اتصلت Google قبل عدة سنوات بالمساعدة في جعل منتجاتها أكثر شمولاً.
في ذلك الوقت ، صناعة التكنولوجيا بالفعل عرفت أن لديها مشكلة مع فرع الذكاء الاصطناعي الذي يدرب الآلات على “رؤية” وفهم الصور. احتفظت رؤية الكمبيوتر بوعود تجارية رائعة ، لكنها رددت التحيزات التاريخية الموجودة في تقنيات الكاميرا السابقة التي صورت الأشخاص الأسود والبني في ضوء غير محدود.
وقال مونك ، وهو باحث في اللون ، وهو شكل من أشكال التمييز القائم على نغمات البشرة الخاصة بالأشخاص والميزات الأخرى: “سيأتي السود أو الناس المظلمون في الصورة ونبدو سخيفًا في بعض الأحيان”.
اعتمدت Google مقياسًا للألوان الذي اخترعه Monk الذي قام بتحسين كيفية تصوير أدوات صور AI الخاصة به بتنوع نغمات البشرة البشرية ، لتحل محل معيار عمره عقود مصمم أصلاً للأطباء الذين يعالجون مرضى الأمراض الجلدية البيضاء.
وقال: “كان للمستهلكين بالتأكيد استجابة إيجابية كبيرة للتغييرات”.
الآن يتساءل مونك عما إذا كانت هذه الجهود ستستمر في المستقبل. على الرغم من أنه لا يعتقد أن مقياس لون بشرة الراهب له مهدد لأنه يخبئ بالفعل في عشرات المنتجات في Google وأماكن أخرى – بما في ذلك هواتف الكاميرا وألعاب الفيديو ومولدات الصور من الذكاء الاصطناعى – يخشى هو والباحثون الآخرون من أن المزاج الجديد يزعج المبادرات المستقبلية والتمويل لجعل التكنولوجيا تعمل بشكل أفضل للجميع.
وقال مونك: “تريد Google أن تعمل منتجاتها للجميع ، في الهند ، الصين ، إفريقيا ، إلخ. هذا الجزء هو نوع من المناعة”. “ولكن هل يمكن تخفيض التمويل المستقبلي لتلك الأنواع من المشاريع؟ بالتأكيد ، عندما يتحول المزاج السياسي وعندما يكون هناك الكثير من الضغط للوصول إلى السوق بسرعة كبيرة.”
ترامب قطع مئات العلوم والتكنولوجيا و منح التمويل الصحي إن لمس موضوعات DEI ، ولكن تأثيرها على التطوير التجاري لأوت بوت ومنتجات الذكاء الاصطناعى الأخرى أكثر غير مباشرة. في التحقيق في شركات الذكاء الاصطناعى ، قال النائب الجمهوري جيم جوردان ، رئيس اللجنة القضائية ، إنه يريد معرفة ما إذا كانت إدارة الرئيس السابق جو بايدن “إجبارًا أو التواطؤ معهم” لرقابة الخطاب القانوني.
قال مايكل كراتسسيوس ، مدير سياسة مكتب العلوم والتكنولوجيا في البيت الأبيض ، في حدث في تكساس هذا الشهر إن سياسات بايدن من الذكاء الاصطناعى “تعزز الانقسامات الاجتماعية وإعادة التوزيع باسم الأسهم”.
رفضت إدارة ترامب إتاحة كراتسسيوس لمقابلة ولكنها نقلت عن عدة أمثلة لما يعنيه. كان أحدهما خطًا من استراتيجية أبحاث منظمة العفو الدولية التي تعود إلى عهد بايدن والتي تقول: “بدون الضوابط المناسبة ، يمكن أن تتضخم أنظمة الذكاء الاصطناعى أو تدمرها أو تفاقم نتائج غير عدوانية أو غير مرغوب فيها للأفراد والمجتمعات”.
حتى قبل تولي بايدن منصبه ، كانت مجموعة متزايدة من الأبحاث والحكايات الشخصية تجذب الانتباه إلى أضرار تحيز الذكاء الاصطناعي.
أظهرت دراسة واحدة تواجه تكنولوجيا السيارات ذاتية القيادة صعوبة في اكتشاف المشاة ذات البشرة الداكنة ، مما يعرضهم لخطر أكبر من الركض. دراسة أخرى تسأل وجدت المولدات الشهيرة من AI Text-To-Imagage لصنع صورة للجراح أنها أنتجت رجلاً أبيض حوالي 98 ٪ من الوقت ، وهو أعلى بكثير من النسب الحقيقية حتى في حقل يهيمن عليه الذكور بشكل كبير.
برنامج مطابقة للوجه لفتح الوجوه الآسيوية التي تم تحديد هجومها. الشرطة في المدن الأمريكية تم القبض على الرجال السود بشكل خاطئ بناء على مباريات التعرف على الوجه الخاطئ. وقبل عقد من الزمان ، قام تطبيق صور Google الخاص بفرز صورة لشخصين أسود في فئة تحمل اسم “الغوريلا”.
حتى العلماء الحكوميين في إدارة ترامب الأولى انتهى في عام 2019 كانت تقنية التعرف على الوجه هذه تؤدي بشكل غير متساو على أساس العرق أو الجنس أو العمر.
دفعت انتخابات بايدن بعض شركات التكنولوجيا لتسريع تركيزها على عدالة الذكاء الاصطناعي. أضاف وصول 2022 من ChatGPT من Openai أولويات جديدة ، مما أثار طفرة تجارية في تطبيقات AI الجديدة لتأليف المستندات وتوليد الصور ، والضغط على شركات مثل Google لتخفيف الحذر واللحاق.
ثم جاء chatbot Gemini AI من Google – وطرح منتج معيب في العام الماضي من شأنه أن يجعله رمزًا لـ “استيقظ AI” يأمل المحافظون في الانهيار. تركت أدوات الذكاء الاصطناعى التي تنشئ صورًا من مطالبة مكتوبة إلى إدامة الصور النمطية المتراكمة من جميع البيانات المرئية التي تم تدريبها عليها.
لم تكن Google مختلفة ، وعندما يُطلب منها تصوير أشخاص في مختلف المهن ، كان من المرجح أن تفضل الوجوه والرجال ذات البشرة الفاتحة ، وعندما تم اختيار النساء ، النساء الأصغر سنا ، وفقًا للبحث العام في الشركة.
حاولت Google وضع الدرابزين الفني لتقليل هذه التباينات قبل طرح مولد صور AI Gemini منذ أكثر من عام. انتهى الأمر التعويض الزائد للتحيز، وضع الأشخاص الملونين والنساء في أماكن تاريخية غير دقيقة ، مثل الإجابة على طلب للآباء المؤسسين الأمريكيين مع صور للرجال في ملابس القرن الثامن عشر الذين بدا أنهم أسود وآسيويين وأمريكيين أصليين. وسرعان ما اعتذرت Google وسحبت القابس مؤقتًا بشكل مؤقت ، لكن الغضب أصبح صرخة حاشدة يمتلكها الحق السياسي.
مع الرئيس التنفيذي لشركة Google Sundar Pichai جالسًا في مكان قريب ، نائب الرئيس JD Vance استخدمت قمة الذكاء الاصطناعي في باريس في فبراير / شباط لفكان النهوض بـ “أجندات اجتماعية مؤكدة من خلال الذكاء الاصطناعي” ، لتسمية اللحظة التي كان فيها مولد صورة Google AI “يحاول أن يخبرنا أن جورج واشنطن كان أسودًا ، أو أن العجينة الأمريكية في الحرب العالمية الأولى ، كانت نساء في الواقع”.
“علينا أن نتذكر الدروس من تلك اللحظة المضحكة” ، أعلن فانس في التجمع. “وما نأخذه هو أن إدارة ترامب ستضمن أن أنظمة الذكاء الاصطناعى التي تم تطويرها في أمريكا خالية من التحيز الأيديولوجي ولا تقيد حق مواطنينا في حرية التعبير.”
وقال مستشار علوم بايدن السابق الذي حضر هذا الخطاب ، ألوندرا نيلسون ، إن تركيز إدارة ترامب الجديد على “التحيز الأيديولوجي” الذي أجرته منظمة العفو الدولية هو اعتراف ببعض السنوات من العمل لمعالجة التحيز الخوارزمي الذي يمكن أن يؤثر على الإسكان والرهون العقارية والرعاية الصحية والجوانب الأخرى من حياة الناس.
وقال نيلسون ، المدير السابق لسياسة العلوم والتكنولوجيا ، “في الأساس ، إن القول بأن أنظمة الذكاء الاصطناعى منحازة أيديولوجيًا هي القول بأنك تحدد وتدرك وتشعر بالقلق بشأن مشكلة التحيز الخوارزمي ، وهي المشكلة التي كان الكثير منا قلقًا عليها منذ فترة طويلة”. شارك في تأليف مجموعة من المبادئ لحماية الحقوق المدنية والحريات المدنية في طلبات الذكاء الاصطناعي.
لكن نيلسون لا يرى مجالًا كبيرًا للتعاون وسط تشويه مبادرات منظمة العفو الدولية المنصفة.
“أعتقد في هذا المجال السياسي ، للأسف ، هذا غير مرجح للغاية” ، قالت. “المشكلات التي تم تسميتها بشكل مختلف- التمييز الخوارزمي أو التحيز الخوارزمي من ناحية ، والتحيز الأيديولوجي من ناحية أخرى- سيُنظر إلينا للأسف على أنها مشكلتين مختلفتين.”