- وأعلن مايلز بروندج، الذي يقدم المشورة لقيادة OpenAI فيما يتعلق بالسلامة والسياسة، رحيله.
- وقال إنه سيترك الشركة للحصول على مزيد من الاستقلالية وحرية النشر.
- سيتم حل فريق جاهزية AGI الذي أشرف عليه.
مايلز بروندج، كبير مستشاري السياسات ورئيس فريق جاهزية AGI في OpenAI، يغادر الشركة. وأعلن القرار يوم الأربعاء في أ نشر على X, والذي كان برفقة أ مقالة فرعية موضحا القرار. سيتم حل فريق جاهزية AGI الذي أشرف عليه، مع توزيع أعضائه المختلفين على أجزاء أخرى من الشركة.
بروندج هو أحدث باحث سلامة رفيع المستوى يغادر OpenAI. في مايو الشركة قام بحل فريق Superalignment الخاص بهوالتي ركزت على مخاطر الذكاء الاصطناعي الفائق، بعد رحيل زعيميها جان لايكي وإيليا سوتسكيفر. ومن بين المديرين التنفيذيين الآخرين الذين غادروا في الأشهر الأخيرة ميرا موراتي، كبير مسؤولي التكنولوجيا في الشركة؛ وبوب ماكجرو، كبير مسؤولي الأبحاث؛ وباريت زوف، نائب رئيس الأبحاث.
ولم تستجب OpenAI لطلب التعليق.
على مدى السنوات الست الماضية، قدم بروندج المشورة للمديرين التنفيذيين وأعضاء مجلس الإدارة في شركة OpenAI حول كيفية الاستعداد لظهور الذكاء الاصطناعي الذي ينافس الذكاء البشري، وهو أمر يعتقد العديد من الخبراء أنه يمكن أن يحدث تحولًا جذريًا في المجتمع.
لقد كان مسؤولاً عن بعض أكبر ابتكارات OpenAI في أبحاث السلامة، بما في ذلك إنشاء فريق أحمر خارجي، والذي يتضمن خبراء خارجيين يبحثون عن المشكلات المحتملة في منتجات OpenAI.
قال بروندج إنه سيترك الشركة ليحصل على مزيد من الاستقلالية وحرية النشر. وأشار إلى خلافاته مع OpenAI بشأن القيود المفروضة على الأبحاث التي سُمح له بنشرها، وقال إن “القيود أصبحت أكثر من اللازم”.
وقال أيضًا إن العمل ضمن OpenAI قد أدى إلى تحيز بحثه وجعل من الصعب أن يكون محايدًا بشأن مستقبل سياسة الذكاء الاصطناعي. في منشوره على X، وصف بروندج الشعور السائد داخل OpenAI بأن “التحدث له تكاليف كبيرة وأن بعض الأشخاص فقط هم القادرون على القيام بذلك”.

