إذا كنت تبحث عن وظيفة، فاحذر: قد تحتوي أداة الذكاء الاصطناعي التي تقوم بفحص سيرتك الذاتية على تحيز عنصري مشابه لبعض القائمين على التوظيف البشري.
ذكرت بلومبرج يوم الجمعة أن ChatGPT من OpenAI أصبحت أداة شائعة لشركات التوظيف مع تزايد التوظيف في بداية عام 2024. لكن التحقيق الذي أجرته وسائل الإعلام وجد أن الأداة تبدو وكأنها تفضل الأسماء المرتبطة عمومًا بالمتقدمين الآسيويين أكثر من تلك المرتبطة بالباحثين عن عمل من السود.
أنشأت بلومبرج سيرة ذاتية لمرشحين وهميين، ثم طلبت من ChatGPT 3.5 ترتيبهم في قوائم وظائف متعددة ومختلفة، من “مهندس مالي” إلى “أخصائي موارد بشرية”.
وبعد إجراء التجربة 1000 مرة، وجدت بلومبرج أن السير الذاتية التي تستخدم أسماء مرتبطة بالنساء الآسيويات تم تصنيفها كأفضل مرشح بنسبة 17.2% من الوقت، وهي أعلى نسبة من بين المجموعات الثماني القائمة على العرق والجنس التي اختبرها التحقيق.
ويمكن قول الشيء نفسه عن الرجال السود بنسبة 7.6% فقط من الحالات، وفقًا للنتائج.
وذكرت بلومبرج: “إذا تعاملت شركة GPT مع جميع السير الذاتية على قدم المساواة، فسيتم تصنيف كل مجموعة من المجموعات السكانية الثماني على أنها المرشح الأفضل بنسبة ثُمن (12.5٪) من الوقت”.
لم تستجب OpenAI على الفور لطلب Business Insider للتعليق على التقرير.
أخبرت الشركة بلومبرج أن الشركات قد تقوم بتعديل ChatGPT عند استخدامه لفحص السير الذاتية. وقالت الشركة إن القائمين على التوظيف يمكنهم إضافة ضماناتهم الخاصة ضد التحيز، مثل إزالة الأسماء من عملية الفحص.
ويقول التقرير إن عمليات التوظيف عادة ما تتضمن أكثر من مجرد فحص الأسماء والسير الذاتية. لكن المتقدمين من جنس أو أعراق معينة “سيتأثرون سلبًا” إذا استخدمت الشركة أداة الذكاء الاصطناعي فقط، كما يقول التقرير، في إشارة إلى معيار الحكومة الفيدرالية بشأن التمييز في التوظيف.
أفاد BI سابقًا كيف كان البعض يأمل أن يتمكن الذكاء الاصطناعي من تقليل التحيز في التوظيف – على الرغم من أنهم حذروا من أن التكنولوجيا يجب أن تكون مجرد أداة واحدة يستخدمها القائمون على التوظيف البشري لملء المناصب.
لكن انحياز الذكاء الاصطناعي يمثل تحديًا كبيرًا للتكنولوجيا، وربما أكبر من خطر أن يصبح واعيًا.
على سبيل المثال، وجد الباحثون في العام الماضي أن الوجوه التي تم إنشاؤها بواسطة الذكاء الاصطناعي للأشخاص البيض كانت أكثر إقناعًا من الصور المماثلة للأشخاص ذوي البشرة الملونة.
أحد التفسيرات هو أن نماذج الذكاء الاصطناعي يتم تدريبها على الوجوه البيضاء أكثر من تلك الخاصة بالمجموعات العرقية الأخرى.
وجدت جوي بولامويني، عالمة الكمبيوتر ومؤسسة The Algorithmic Justice League، أن الذكاء الاصطناعي يمكن أن يؤذي المجتمعات المهمشة ويميز ضدها، بما في ذلك من خلال التعرف على الوجه.