لقد كان هذا هو أسبوع المقالات الافتتاحية المتضاربة من أعضاء مجلس إدارة OpenAI السابقين والحاليين.

أصدر عضوا مجلس إدارة OpenAI الحاليان، بريت تايلور ولاري سمرز، ردًا على مخاوف سلامة الذكاء الاصطناعي يوم الخميس، قائلين إن “المجلس يتخذ خطوات متناسبة لضمان السلامة والأمن”.

ويأتي الرد بعد أيام قليلة من نشر مجلة The Economist مقالة افتتاحية لعضوي مجلس إدارة OpenAI السابقين هيلين تونر وتاشا مكولي، اللذين انتقدا ممارسات السلامة الخاصة بالرئيس التنفيذي Sam Altman وOpenAI بينما دعوا إلى ضرورة تنظيم الذكاء الاصطناعي. يقول عنوان المقال أن “شركات الذكاء الاصطناعي لا يجب أن تحكم نفسها”.

رد تايلور وسمرز، العضوان الحاليان، على ادعاءات المديرين السابقين في رد نُشر أيضًا في مجلة الإيكونوميست. دافعوا عن ألتمان وناقشوا موقف OpenAI بشأن السلامة، بما في ذلك تشكيل الشركة للجنة جديدة للسلامة ومجموعة من الالتزامات الطوعية التي قدمتها OpenAI للبيت الأبيض لتعزيز السلامة والأمن.

وقال الزوجان إنهما ترأسا في السابق لجنة خاصة كجزء من مجلس الإدارة المنشأ حديثًا وقاما بإعداد مراجعة خارجية من قبل شركة المحاماة ويلمر هيل للأحداث التي أدت إلى الإطاحة بألتمان. وأضافوا أن العملية استلزمت مراجعة 30 ألف وثيقة، إلى جانب عشرات المقابلات مع مجلس إدارة OpenAI السابق والمديرين التنفيذيين وغيرهم من الشهود ذوي الصلة.

وأكد تايلور وسمرز أن ويلمرهيل خلص إلى أن إقالة ألتمان “لم تنشأ بسبب مخاوف تتعلق بسلامة المنتج أو أمنه” أو “وتيرة التطوير”.

كما اعترضوا على وصف المقال الافتتاحي بأن ألتمان قد خلق “ثقافة سامة من الكذب” والانخراط في سلوك مسيئ نفسيًا. وفي الأشهر الستة الماضية، قال عضوا مجلس الإدارة الحاليان إنهما وجدا أن ألتمان “متعاون للغاية في جميع القضايا ذات الصلة ومتعاون باستمرار مع فريق إدارته”.

في مقابلة نُشرت في نفس يوم مقالتها الافتتاحية، أوضحت تونر سبب قرار مجلس الإدارة السابق سابقًا بإقالة ألتمان، قائلة إنه كذب عليهم “عدة مرات” وحجب المعلومات. وقالت أيضًا إن مجلس إدارة OpenAI القديم اكتشف إصدار ChatGPT على Twitter.

وكتب تايلور وسمرز ردًا على ذلك: “على الرغم من صعوبة تذكره الآن، فقد أصدرت Openai Chatgpt في نوفمبر 2022 كمشروع بحثي لمعرفة المزيد حول مدى فائدة نماذجها في إعدادات المحادثة”. “لقد تم بناؤه على gpt-3.5، وهو نموذج موجود بالفعل للذكاء الاصطناعي والذي كان متاحًا بالفعل لأكثر من ثمانية أشهر في ذلك الوقت.”

لم يستجب تونر لطلب التعليق قبل النشر. ولم تستجب OpenAI لطلب التعليق.

وأضاف عضوا مجلس الإدارة الحاليان أن OpenAI تدعم “التنظيم الفعال للذكاء الاصطناعي العام”، وقد “ناشد” ألتمان، الذي أعيد إلى منصبه بعد أيام فقط من الإطاحة به، المشرعين لتنظيم الذكاء الاصطناعي.

كان ألتمان يدعو إلى شكل ما من أشكال تنظيم الذكاء الاصطناعي منذ عام 2015، وقال مؤخرًا إنه يفضل تشكيل وكالة تنظيمية دولية – لكنه قال أيضًا إنه “متوتر للغاية بشأن التجاوزات التنظيمية”.

وفي القمة العالمية للحكومات التي انعقدت في شهر فبراير/شباط الماضي، اقترح ألتمان إنشاء “صندوق رقابي تنظيمي” حيث يستطيع الناس تجربة التكنولوجيا وكتابة القواعد التنظيمية حول ما “حدث خطأ حقيقي” وما حدث “على النحو الصحيح حقاً”.

شهدت شركة OpenAI العديد من المغادرين البارزين في الأسابيع الأخيرة، بما في ذلك باحث التعلم الآلي جان لايكي، وكبير العلماء إيليا سوتسكيفر، وباحثة السياسات غريتشن كروجر. أعرب كل من Leike و Krueger عن مخاوف تتعلق بالسلامة بعد مغادرتهما.

كان كل من Leike وSutskever، وهو أيضًا أحد مؤسسي OpenAI، قائدين مشاركين لفريق Superalignment في الشركة. تم تكليف الفريق بالبحث في المخاطر طويلة المدى للذكاء الاصطناعي، بما في ذلك احتمال أن يصبح “مارقًا”.

قامت OpenAI بحل فريق سلامة المحاذاة الفائقة قبل الإعلان لاحقًا عن تشكيل لجنة سلامة جديدة.

شاركها.