بعد أيام قليلة من إعلان OpenAI عن تشكيل لجنة السلامة الجديدة الخاصة بها، اتهم عضوا مجلس الإدارة السابقان هيلين تونر وتاشا ماكولي علانية الرئيس التنفيذي سام ألتمان بإعطاء الأولوية للأرباح على التطوير المسؤول للذكاء الاصطناعي، وإخفاء التطورات الرئيسية عن مجلس الإدارة، وتعزيز بيئة سامة في الشركة.

لكن أعضاء مجلس إدارة OpenAI الحاليين، بريت تايلور ولاري سامرز، ردوا اليوم بدفاع قوي عن ألتمان، مواجهين الاتهامات قائلين إن تونر وماكولي يحاولان إعادة فتح قضية مغلقة. تكشفت الحجة في زوج من المقالات الافتتاحية المنشورة في الإيكونوميست.

تم طرد أعضاء مجلس الإدارة السابقين أولاً، بحجة أن مجلس إدارة OpenAI لم يتمكن من كبح جماح رئيسه التنفيذي.

“في نوفمبر الماضي، وفي محاولة لإنقاذ هذا الهيكل التنظيمي الذاتي، قام مجلس إدارة OpenAI بإقالة مديره التنفيذي،” كتب تونر وماكولي – الذي لعب دورًا في الإطاحة بألتمان العام الماضي – في 26 مايو. “في حالة OpenAI المحددة، نظرًا “واجب مجلس الإدارة في توفير الرقابة المستقلة وحماية مهمة المصلحة العامة للشركة، نحن نقف إلى جانب الإجراء الذي اتخذه مجلس الإدارة.”

وفي ردهما المنشور، دافع بريت تايلور ولاري سامرز – اللذان انضما إلى OpenAI بعد أن ترك تونر وماكولي الشركة – عن ألتمان، رافضين الادعاءات ومؤكدين التزامه بالسلامة والحوكمة.

وكتبوا: “نحن لا نقبل الادعاءات التي قدمتها السيدة تونر والسيدة ماكولي فيما يتعلق بالأحداث في OpenAI”. “نأسف لأن السيدة تونر تواصل إعادة النظر في القضايا التي تم فحصها بدقة من خلال المراجعة التي قادها ويلمرهيل بدلاً من المضي قدمًا “.

في حين أن تونر وماكولي لم يستشهدا بلجنة السلامة والأمن الجديدة للشركة، إلا أن رسالتهما كررت المخاوف من عدم قدرة OpenAI على مراقبة نفسها ومديرها التنفيذي بمصداقية.

وكتبوا: “استنادًا إلى خبرتنا، نعتقد أن الإدارة الذاتية لا يمكنها الصمود بشكل موثوق في ضغوط حوافز الربح. ونشعر أيضًا أن التطورات منذ عودته إلى الشركة – بما في ذلك إعادته إلى مجلس الإدارة ورحيل كبار مسؤولي السلامة”. – الموهبة المركزة – لا تبشر بالخير بالنسبة لتجربة OpenAI في الحكم الذاتي.

وقال أعضاء مجلس الإدارة السابقون إن “أنماط السلوك طويلة الأمد” التي اتبعها ألتمان تركت مجلس إدارة الشركة غير قادر على الإشراف بشكل صحيح على “القرارات الرئيسية وبروتوكولات السلامة الداخلية”. ومع ذلك، أشار زملاء ألتمان الحاليون إلى استنتاجات المراجعة المستقلة للصراع بتكليف من الشركة.

وكتبوا: “رفضت نتائج المراجعة فكرة أن أي نوع من المخاوف المتعلقة بسلامة الذكاء الاصطناعي استلزم استبدال السيد ألتمان، في الواقع، وجد ويلمرهيل أن قرار مجلس الإدارة السابق لم ينشأ بسبب مخاوف تتعلق بسلامة المنتج أو أمنه، ووتيرة التطوير أو الموارد المالية لشركة OpenAI أو بياناتها للمستثمرين أو العملاء أو شركاء الأعمال.

ولعل الأمر الأكثر إثارة للقلق هو أن تونر وماكولي اتهما ألتمان بتعزيز ثقافة الشركة السامة.

“لقد أعرب العديد من كبار القادة بشكل خاص عن مخاوفهم الجسيمة مع مجلس الإدارة، قائلين إنهم يعتقدون أن السيد ألتمان زرع “ثقافة سامة من الكذب” وشارك في” سلوك (يمكن وصفه بأنه إساءة نفسية).”

لكن تايلور وسامرز دحضا ادعاءاتهما قائلين إن ألتمان يحظى بتقدير كبير من قبل موظفيه.

وقالوا: “خلال ستة أشهر من الاتصال اليومي تقريبًا مع الشركة، وجدنا السيد ألتمان صريحًا للغاية في جميع القضايا ذات الصلة ومتعاونًا باستمرار مع فريق إدارته”.

وقال تايلور وسمرز أيضًا إن ألتمان ملتزم بالعمل مع الحكومة للتخفيف من مخاطر تطوير الذكاء الاصطناعي.

يأتي هذا التقلب العام وسط حقبة مضطربة بالنسبة لـ OpenAI والتي بدأت بإطاحته التي لم تدم طويلاً. وفي هذا الشهر فقط، انضم رئيس قسمها السابق إلى الشركة المنافسة Antropic بعد توجيه اتهامات مماثلة ضد Altman. كان عليها أن تتراجع عن نموذج صوتي مشابه بشكل لافت للنظر لنموذج الممثلة سكارليت جوهانسون بعد فشلها في الحصول على موافقتها. قامت الشركة بتفكيك فريقها الفائق، وتم الكشف عن أن اتفاقيات عدم الإفشاء المسيئة منعت الموظفين السابقين من انتقاد الشركة.

كما أبرمت OpenAI صفقات مع وزارة الدفاع لاستخدام تقنية GPT للتطبيقات العسكرية. وفي الوقت نفسه، ورد أن شركة مايكروسوفت، المستثمر الرئيسي في OpenAI، قامت أيضًا بترتيبات مماثلة تتعلق بـ ChatGPT.

تبدو الادعاءات التي شاركها تونر وماكولي متسقة مع التصريحات التي شاركها باحثون سابقون في OpenAI الذين تركوا الشركة قائلين: “على مدى السنوات الماضية، تراجعت ثقافة وعمليات السلامة (في OpenAI) عن المنتجات اللامعة” وأن تحالفه كان الفريق “يبحر ضد الريح”.

تناول تايلور وسمرز هذه المخاوف جزئيًا في عمودهم من خلال الاستشهاد بلجنة السلامة الجديدة ومسؤوليتها “لتقديم توصيات إلى مجلس الإدارة بكامل هيئته بشأن المسائل المتعلقة بقرارات الأمن والسلامة الحاسمة لجميع مشاريع OpenAI”.

قامت تونر مؤخرًا بتصعيد ادعاءاتها بشأن افتقار ألتمان للشفافية.

وكشفت في بودكاست The TED AI Show في وقت سابق من هذا الأسبوع: “لإعطاء فكرة عن نوع الشيء الذي أتحدث عنه، عندما تم إصدار ChatGPT في نوفمبر 2022، لم يتم إبلاغ مجلس الإدارة مسبقًا”. تويتر.”

وقالت أيضًا إن مجلس إدارة OpenAI لم يكن يعلم أن Altman يمتلك صندوق OpenAI Startup Fund، على الرغم من ادعاءاته بعدم وجود حصة مالية في OpenAI. استثمر الصندوق الملايين التي تم جمعها من شركاء مثل مايكروسوفت في أعمال أخرى، دون علم مجلس الإدارة. تم إنهاء ملكية ألتمان للصندوق في أبريل.

لم يستجب OpenAI لطلب التعليق من فك التشفير.

حرره ريان أوزاوا.

شاركها.