في نفس الأسبوع الذي أطلقت فيه OpenAI GPT-4o، وهو الذكاء الاصطناعي الأكثر شبهاً بالإنسان حتى الآن، قامت الشركة بحل فريق Superalignment الخاص بها، حسبما ذكرت Wired لأول مرة.
أنشأت OpenAI فريق Superalignment الخاص بها في يوليو 2023، بقيادة إيليا سوتسكيفر وجان لايكي. كان الفريق ملتزمًا بالتخفيف من مخاطر الذكاء الاصطناعي، مثل احتمالية أن يصبح “مارقًا”.
وبحسب ما ورد تم حل الفريق بعد أيام من إعلان زعيميه، إيليا سوتسكيفر وجان لايكي، استقالتيهما في وقت سابق من هذا الأسبوع. قال Sutskever في منشوره إنه يشعر “بالثقة في أن OpenAI ستبني الذكاء الاصطناعي العام الآمن والمفيد” في ظل القيادة الحالية.
وأضاف أيضًا أنه “متحمس لما سيأتي بعد ذلك”، والذي وصفه بأنه “مشروع ذو معنى شخصي للغاية” بالنسبة له. ولم يوضح المدير التنفيذي السابق لشركة OpenAI الأمر، لكنه قال إنه سيشارك التفاصيل في الوقت المناسب.
تصدر سوتسكيفر، أحد المؤسسين وكبير العلماء السابق في شركة OpenAI، عناوين الأخبار عندما أعلن رحيله. ولعب المسؤول التنفيذي دورًا في الإطاحة بالرئيس التنفيذي سام التمان في نوفمبر. على الرغم من الإعراب لاحقًا عن أسفه للمساهمة في إقالة ألتمان، إلا أن مستقبل سوتسكيفر في OpenAI كان موضع تساؤل منذ إعادة ألتمان إلى منصبه.
بعد إعلان Sutskever، نشر Leike على X، Twitter سابقًا، أنه سيغادر OpenAI أيضًا. ونشر المدير التنفيذي السابق سلسلة من المنشورات يوم الجمعة يشرح فيها رحيله، والذي قال إنه جاء بعد خلافات حول الأولويات الأساسية للشركة “لفترة طويلة”.
وقال لايكي إن فريقه كان “يبحر ضد الريح” ويكافح من أجل الحصول على حوسبة لأبحاثه. تضمنت مهمة فريق Superalignment استخدام 20% من قوة حوسبة OpenAI على مدى السنوات الأربع المقبلة “لبناء باحث محاذاة آلي على المستوى البشري تقريبًا”، وفقًا لإعلان OpenAI عن الفريق في يوليو الماضي.
وأضاف Leike “يجب أن تصبح OpenAI شركة AGI ذات الأولوية للسلامة.” وقال إن بناء ذكاء اصطناعي مولد هو “مسعى خطير بطبيعته” وأن OpenAI كانت مهتمة بإطلاق “منتجات لامعة” أكثر من اهتمامها بالسلامة.
ولم يستجب جان ليك لطلب التعليق.
كان هدف فريق Superalignment هو “حل التحديات التقنية الأساسية لمحاذاة الذكاء الفائق في أربع سنوات”، وهو الهدف الذي اعترفت الشركة بأنه “طموح بشكل لا يصدق”. وأضافوا أيضًا أنهم غير مضمونين بالنجاح.
وشملت بعض المخاطر التي عمل الفريق عليها “سوء الاستخدام، والاضطراب الاقتصادي، والتضليل، والتحيز والتمييز، والإدمان، والاعتماد المفرط”. وقالت الشركة في منشورها إن عمل الفريق الجديد كان بالإضافة إلى العمل الحالي في OpenAI الذي يهدف إلى تحسين سلامة النماذج الحالية، مثل ChatGPT.
أفادت Wired أن بعض أعضاء الفريق المتبقين قد تم دمجهم في فرق OpenAI أخرى.
ولم يستجب OpenAI لطلب التعليق.