“التوسع” هو شعار في صناعة الذكاء الاصطناعي مع تسارع شركات التكنولوجيا إلى تحسين أنظمة الذكاء الاصطناعي الخاصة بها باستخدام مجموعات أكبر من بيانات الإنترنت.
وهذا أيضًا بمثابة علم أحمر بالنسبة لأبيبا بيرهاني، خبيرة الذكاء الاصطناعي في موزيلا، والتي تحدت لسنوات القيم والممارسات في مجالها والتأثير الذي تحدثه على العالم.
أحدث أبحاثها توصلت دراسة إلى أن التوسع في استخدام البيانات عبر الإنترنت لتدريب أدوات توليد الصور الذكية الشائعة يؤدي بشكل غير متناسب إلى مخرجات عنصرية، وخاصة ضد الرجال السود.
بيرهان هي مستشارة أولى في مجال المساءلة بشأن الذكاء الاصطناعي في مؤسسة موزيلا، وهي المنظمة الأم غير الربحية لشركة البرمجيات الحرة التي تدير متصفح الويب فايرفوكس. نشأت في إثيوبيا وتعيش في أيرلندا، وهي أيضًا أستاذة مساعدة في كلية ترينيتي في دبلن.
تم تحرير المقابلة التي أجرتها معها وكالة أسوشيتد برس من أجل اختصارها ووضوحها.
س: كيف بدأت في مجال الذكاء الاصطناعي؟
ج: أنا متخصص في العلوم المعرفية من حيث التدريب. لا يوجد قسم خاص بعلوم الكمبيوتر أينما كنت تدرسها. لذا حيث كنت أدرس، كنت أدرس علوم الكمبيوتر. تم وضعي في مختبر مليء بالتعلم الآلي. كانوا يقومون بالكثير من الأشياء المذهلة ولم يكن أحد ينتبه إلى البيانات. وجدت ذلك مسليًا للغاية ومثيرًا للاهتمام أيضًا لأنني اعتقدت أن البيانات كانت أحد أهم المكونات لنجاح نموذجك. لكنني وجدت أنه من الغريب أن الناس لا يهتمون كثيرًا أو يخصصون وقتًا للسؤال، “ما الذي يوجد في مجموعة البيانات الخاصة بي؟” هكذا أصبحت مهتمًا بهذا المجال. ثم في النهاية، بدأت في إجراء عمليات تدقيق لمجموعات البيانات واسعة النطاق.
س: هل يمكنك التحدث عن عملك بشأن الأسس الأخلاقية للذكاء الاصطناعي؟
ج: لكل شخص وجهة نظره حول ماهية التعلم الآلي. لذا فإن متعلمي الآلة ــ الأشخاص من مجتمع الذكاء الاصطناعي ــ يخبرونك بأن التعلم الآلي لا قيمة له. إنه مجرد علم رياضيات، وموضوعي، ومحايد، وما إلى ذلك. في حين يخبرك العلماء في العلوم الاجتماعية أن التعلم الآلي، مثله كمثل أي تقنية أخرى، يشفر قيم أولئك الذين يغذونه. لذا فإن ما فعلناه هو أننا درسنا بشكل منهجي مائة من أكثر أوراق التعلم الآلي تأثيرًا لمعرفة ما يهتم به هذا المجال والقيام بذلك بطريقة صارمة للغاية.
ج: وأحد تلك القيم هو التوسع؟
س: يعتبر الحجم بمثابة الكأس المقدسة للنجاح. هناك باحثون من شركات كبيرة مثل DeepMind وGoogle وMeta، يزعمون أن الحجم يتغلب على الضوضاء وأن الحجم يلغي الضوضاء. والفكرة هي أنه مع زيادة الحجم، يجب أن يصبح كل شيء في مجموعة البيانات الخاصة بك متساويًا، ويجب أن يتوازن مع نفسه. ويجب أن ينتهي بك الأمر إلى شيء مثل التوزيع الطبيعي أو شيء أقرب إلى الحقيقة الأساسية. هذه هي الفكرة.
س: لكن بحثك تناول كيف يمكن أن يؤدي التوسع إلى إلحاق الضرر. ما هي بعض هذه الأضرار؟
ج: على الأقل عندما يتعلق الأمر بالمحتوى البغيض أو السمية وما إلى ذلك، فإن توسيع نطاق هذه المجموعات من البيانات يزيد أيضًا من حجم المشكلات التي تحتوي عليها. وبشكل أكثر تحديدًا، في سياق دراستنا، يؤدي توسيع نطاق مجموعات البيانات أيضًا إلى زيادة حجم المحتوى البغيض في مجموعة البيانات. لقد قمنا بقياس كمية المحتوى البغيض في مجموعتين من البيانات. زاد المحتوى البغيض والمحتوى المستهدف والمحتوى العدواني مع توسيع نطاق مجموعة البيانات من 400 مليون إلى 2 مليار. كان هذا اكتشافًا قاطعًا للغاية يُظهر أن قوانين التوسع لا تصمد حقًا عندما يتعلق الأمر ببيانات التدريب. (في ورقة بحثية أخرى) وجدنا أن النساء ذوات البشرة الداكنة، والرجال على وجه الخصوص، يميلون إلى تخصيص تسميات الشخص المشبوه أو المجرمين بمعدل أعلى بكثير.
س: ما مدى أملك أو ثقتك في أن صناعة الذكاء الاصطناعي ستجري التغييرات التي اقترحتها؟
ج: هذه ليست مجرد مخرجات رياضية وتقنية بحتة. إنها أيضًا أدوات تشكل المجتمع وتؤثر عليه. وتتلخص التوصيات في أننا نشجع ونولي اهتمامًا لقيم مثل العدالة والإنصاف والخصوصية وما إلى ذلك. وإجابتي الصادقة هي أنني لا أثق مطلقًا في أن الصناعة ستأخذ توصياتنا. لم تأخذ الصناعة أبدًا أي توصيات مثل هذه تشجعها فعليًا على التعامل مع هذه القضايا المجتمعية بجدية. وربما لن تفعل ذلك أبدًا. تميل الشركات الكبرى إلى التصرف عندما يكون ذلك مطلوبًا قانونًا. نحن بحاجة إلى تنظيم قوي للغاية وقابل للتنفيذ. كما تتفاعل الشركات مع الغضب العام والوعي العام. إذا وصل الأمر إلى حالة تتضرر فيها سمعتها، فإنها تميل إلى إجراء التغيير.