يقوم أحد كبار المسؤولين التنفيذيين السابقين في مجال السلامة في OpenAI بتوضيح كل ذلك.

أعلن جان لايكي، قائد مجموعة Superalignment التابعة لشركة الذكاء الاصطناعي، أنه سيستقيل ليلة الثلاثاء بمنشور صريح على X: “لقد استقلت”.

شارك Leike الآن المزيد حول خروجه – وقال إن OpenAI لا تأخذ السلامة على محمل الجد بما فيه الكفاية.

قال Leike في منشوراته إنه انضم إلى OpenAI لأنه يعتقد أنه سيكون أفضل مكان للبحث في كيفية “توجيه والتحكم” في الذكاء العام الاصطناعي. وهي نسخة افتراضية حتى الآن من الذكاء الاصطناعي والتي ستكون قادرة على التفكير بشكل أسرع من الإنسان.

وكتب ليك: “ومع ذلك، فقد كنت أختلف مع قيادة OpenAI حول الأولويات الأساسية للشركة لبعض الوقت، حتى وصلنا أخيرًا إلى نقطة الانهيار”.

قال المدير التنفيذي السابق لشركة OpenAI إن الشركة يجب أن تركز معظم اهتمامها على قضايا “الأمن، والمراقبة، والاستعداد، والسلامة، وقوة الخصومة، والمواءمة (الفائقة)، والسرية، والتأثير المجتمعي، والمواضيع ذات الصلة”.

لكن لايكي قال إن فريقه، الذي كان يعمل على كيفية مواءمة أنظمة الذكاء الاصطناعي مع ما هو أفضل للبشرية، كان “يبحر ضد الريح” في OpenAI.

وكتب: “لقد تأخرنا كثيرًا في أن نكون جديين بشكل لا يصدق بشأن الآثار المترتبة على الذكاء الاصطناعي العام”، مضيفًا أن “OpenAI يجب أن تصبح شركة الذكاء الاصطناعي العام التي تضع السلامة أولاً”.

اختتم Leike موضوعه بملاحظة لموظفي OpenAI، لتشجيعهم على تغيير ثقافة السلامة في الشركة.

وقال “أنا أعول عليكم. العالم يعتمد عليكم”.

رد سام ألتمان، الرئيس التنفيذي لشركة OpenAI، على موضوع Leike على X.

قال ألتمان على قناة X: “أنا أقدر بشدة مساهمات @janleike في أبحاث المواءمة وثقافة السلامة في OpenAI، ويحزنني جدًا رؤيته يغادر”. “إنه على حق، لدينا الكثير لنفعله؛ نحن ملتزمون بالقيام بذلك. سيكون لدي مقالة أطول في اليومين المقبلين.”

أنهى الرسالة برمز تعبيري على شكل قلب برتقالي.

استقالات في OpenAI

ليك وإيليا سوتسكيفر، قائد فريق المحاذاة الفائقة الآخر، أعلنوا أنهم كانوا مغادرة OpenAI في غضون ساعات من بعضها البعض.

في بيان على X، أشاد ألتمان بسوتسكفير ووصفه بأنه “واحد من أعظم العقول في جيلنا، والنور الهادي لمجالنا، وصديق عزيز”.

وكتب ألتمان: “لن يكون OpenAI على ما هو عليه بدونه”. “على الرغم من أن لديه شيئًا ذا معنى شخصيًا سيواصل العمل عليه، إلا أنني ممتن إلى الأبد لما فعله هنا وملتزم بإنهاء المهمة التي بدأناها معًا”.

ذكرت Wired يوم الجمعة أن OpenAI قامت بحل فريق مخاطر الذكاء الاصطناعي الخاص بالزوج. وقالت إن الباحثين الذين كانوا يحققون في مخاطر الذكاء الاصطناعي سيتم استيعابهم الآن في أجزاء أخرى من الشركة.

تعرضت شركة الذكاء الاصطناعي – التي أطلقت مؤخرًا نموذجها اللغوي الكبير الجديد GPT-4o – لصدمات كبيرة في الأسابيع القليلة الماضية.

بالإضافة إلى رحيل لايكي وسوتسكيفر، المعلومات تم كتابة تقرير بذلك غادرت ديان يون، نائبة الرئيس السابقة لشؤون الأفراد، وكريس كلارك، الرئيس السابق للمبادرات غير الربحية والاستراتيجية، شركة OpenAI. وفي الأسبوع الماضي، أفاد BI أن باحثين آخرين يعملان في مجال السلامة تركا الشركة.

قال أحد هؤلاء الباحثين لاحقًا إنه فقد الثقة في أن OpenAI “ستتصرف بمسؤولية في وقت قريب من الذكاء الاصطناعي العام”.

شاركها.
Exit mobile version