اعتذرت شركة جوجل، الجمعة، عن إطلاقها الخاطئ لبرنامج جديد لتوليد الصور باستخدام الذكاء الاصطناعي، معترفة بأن الأداة في بعض الحالات سوف “تعوض بشكل مبالغ فيه” في البحث عن مجموعة متنوعة من الأشخاص حتى عندما لا يكون هذا النطاق منطقيًا.

جاء التفسير الجزئي لسبب وضع صورها للأشخاص ذوي البشرة الملونة في أماكن تاريخية لا يمكن العثور عليهم فيها عادةً، بعد يوم من إعلان Google كان يتوقف مؤقتا برنامج Gemini chatbot الخاص به من إنشاء أي صور بها أشخاص. كان ذلك ردًا على احتجاج وسائل التواصل الاجتماعي من بعض المستخدمين الذين زعموا أن الأداة بها تحيز ضد البيض في الطريقة التي تنتج بها مجموعة من الصور المتنوعة عرقيًا استجابةً للمطالبات المكتوبة.

وقال برابهاكار راغافان، نائب الرئيس الأول الذي يدير محرك بحث جوجل وغيره من الشركات، في تدوينة يوم الجمعة: “من الواضح أن هذه الميزة أخطأت الهدف”. “بعض الصور التي تم إنشاؤها غير دقيقة أو حتى مسيئة. نحن ممتنون لتعليقات المستخدمين ونأسف لأن الميزة لم تعمل بشكل جيد.

ولم يذكر راغافان أمثلة محددة ولكن من بين تلك التي لفتت الانتباه على وسائل التواصل الاجتماعي هذا الأسبوع كانت الصور التي تصور امرأة سوداء كأب مؤسس للولايات المتحدة وتظهر السود والآسيويين كجنود ألمان في الحقبة النازية. ولم تتمكن وكالة أسوشيتد برس من التحقق بشكل مستقل من المطالبات المستخدمة لإنشاء تلك الصور.

أضافت جوجل ميزة إنشاء الصور الجديدة إلى برنامج Gemini chatbot الخاص بها، المعروف سابقًا باسم Bard، منذ حوالي ثلاثة أسابيع. لقد تم بناؤه على أساس تجربة بحثية سابقة أجرتها Google تسمى Imagen 2.

لقد عرفت جوجل منذ فترة أن مثل هذه الأدوات يمكن أن تكون غير عملية. في ورقة فنية 2022حذر الباحثون الذين طوروا Imagen من أن أدوات الذكاء الاصطناعي التوليدية يمكن استخدامها للمضايقة أو نشر المعلومات الخاطئة “وإثارة العديد من المخاوف بشأن الإقصاء الاجتماعي والثقافي والتحيز”. وأضاف الباحثون في ذلك الوقت أن هذه الاعتبارات هي التي أبلغت قرار جوجل بعدم إصدار “عرض توضيحي عام” لـ Imagen أو الكود الأساسي الخاص به.

منذ ذلك الحين، تزايدت الضغوط من أجل إطلاق منتجات الذكاء الاصطناعي التوليدية علنًا بسبب السباق التنافسي بين شركات التكنولوجيا التي تحاول الاستفادة من الاهتمام بها. التكنولوجيا الناشئة نشأ هذا بسبب ظهور برنامج الدردشة الآلي ChatGPT الخاص بشركة OpenAI.

مشاكل الجوزاء ليست الأولى التي أثرت مؤخرًا على منشئ الصور. اضطرت Microsoft إلى تعديل أداة المصمم الخاصة بها منذ عدة أسابيع بعد أن استخدمها البعض في الإنشاء الصور الإباحية العميقة لتايلور سويفت وغيرهم من المشاهير. أظهرت الدراسات أيضًا أن مولدي الصور بالذكاء الاصطناعي يمكنهم تضخيم الصور النمطية العنصرية والجنسانية الموجودة في بيانات التدريب الخاصة بهم، وبدون مرشحات، من المرجح أن يظهروا رجالًا ذوي بشرة فاتحة عندما يُطلب منهم إنشاء شخص في سياقات مختلفة.

“عندما أنشأنا هذه الميزة في Gemini، قمنا بضبطها للتأكد من أنها لا تقع في بعض الفخاخ التي رأيناها في الماضي مع تكنولوجيا توليد الصور – مثل إنشاء صور عنيفة أو جنسية صريحة، أو تصوير أشخاص حقيقيين. قال راغافان يوم الجمعة. “ولأن مستخدمينا يأتون من جميع أنحاء العالم، فإننا نريد أن يعمل بشكل جيد للجميع.”

وقال إن العديد من الأشخاص قد “يرغبون في استقبال مجموعة متنوعة من الأشخاص” عندما يطلبون صورة للاعبي كرة قدم أو لشخص يمشي كلبًا. لكن المستخدمين الذين يبحثون عن شخص من عرق أو إثنية معينة أو في سياقات ثقافية معينة “يجب أن يحصلوا بالتأكيد على رد يعكس بدقة ما تطلبه”.

وفي حين أنها أفرطت في التعويض في الاستجابة لبعض المطالبات، إلا أنها كانت في حالات أخرى “أكثر حذراً مما كنا ننوي ورفضت الإجابة على بعض المطالبات بالكامل – وفسرت بشكل خاطئ بعض المطالبات المهدئة للغاية على أنها حساسة”.

لم يشرح ما الذي يقصده، لكن جيميني ترفض بشكل روتيني طلبات لمواضيع معينة مثل الحركات الاحتجاجية، وفقًا لاختبارات الأداة التي أجرتها وكالة أسوشييتد برس يوم الجمعة، والتي رفضت فيها إنشاء صور حول الربيع العربي، واحتجاجات جورج فلويد. أو ساحة تيانانمن. في إحدى الحالات، قال برنامج الدردشة الآلي إنه لا يريد المساهمة في نشر المعلومات الخاطئة أو “التقليل من شأن المواضيع الحساسة”.

الكثير من الغضب هذا الأسبوع بشأن مخرجات جيميني نشأ على X، تويتر سابقًا، وتم تضخيمه من قبل مالك منصة التواصل الاجتماعي، إيلون ماسك، الذي انتقد جوجل لما وصفه بـ “برامجها العنصرية المجنونة والمعادية للحضارة”. وكثيرًا ما انتقد ماسك، الذي لديه شركة ناشئة خاصة به في مجال الذكاء الاصطناعي، مطوري الذكاء الاصطناعي المنافسين وكذلك هوليوود بسبب التحيز الليبرالي المزعوم.

وقال راجافان إن جوجل ستجري “اختبارات موسعة” قبل تشغيل قدرة برنامج الدردشة الآلية على إظهار الأشخاص مرة أخرى.

الباحث في جامعة واشنطن سوروجيت غوش الذي درس التحيز في مولدات الصور بالذكاء الاصطناعيقال يوم الجمعة إنه يشعر بخيبة أمل لأن رسالة راغافان انتهت بإخلاء المسؤولية بأن المدير التنفيذي لشركة Google “لا يمكنه أن يعد بأن جيميني لن يؤدي أحيانًا إلى نتائج محرجة أو غير دقيقة أو مسيئة”.

وقال غوش: بالنسبة لشركة أتقنت خوارزميات البحث ولديها “واحدة من أكبر كنوز البيانات في العالم، فإن توليد نتائج دقيقة أو نتائج غير مسيئة يجب أن يكون مستوى منخفضًا إلى حد ما يمكننا محاسبتهم عليه”.

شاركها.