تواجه OpenAI المزيد من الاضطرابات عندما تعلن موظفة أخرى استقالتها بسبب مخاوف تتعلق بالسلامة.

يأتي ذلك بعد استقالة المديرين التنفيذيين البارزين إيليا سوتسكيفر وجان لايكي، اللذين أدارا فريق أبحاث السلامة Superalignment الذي تم حله الآن.

أعلنت غريتشن كروجر في موضوع على X يوم الأربعاء أنها تركت صانع ChatGPT في 14 مايو وأنه “لم يكن قرارًا سهلاً”.

وكتب كروجر: “لقد استقالت قبل ساعات قليلة من سماع الأخبار المتعلقة بـ @ilyasut و @janleike، واتخذت قراري بشكل مستقل. أشاركهم مخاوفهم. ولدي أيضًا مخاوف إضافية ومتداخلة”.

وأضافت أنه لا بد من بذل المزيد من الجهود لتحسين “عمليات صنع القرار؛ والمساءلة؛ والشفافية؛ والتوثيق؛ وإنفاذ السياسات؛ والعناية التي نستخدم بها التكنولوجيا الخاصة بنا؛ وتخفيف التأثيرات على عدم المساواة، والحقوق، والبيئة”.

قال العامل السابق في مجال أبحاث السياسات إن الناس والمجتمعات يتشاركون هذه المخاوف التي يمكن أن “تؤثر على كيفية رسم جوانب المستقبل، ومن يقوم بها”، وأنه لا ينبغي “إساءة فهمها على أنها ضيقة أو تخمينية أو منفصلة”.

وكتبت في منشور آخر: “إحدى الطرق التي يمكن لشركات التكنولوجيا بشكل عام إضعاف أولئك الذين يسعون لمحاسبتها هي زرع الانقسام بين أولئك الذين يثيرون المخاوف أو يتحدون سلطتهم. أنا أهتم بشدة بمنع ذلك”.

في الأسبوع الماضي، أعلن كبير العلماء والمؤسس المشارك إيليا سوتسكيفر استقالته، تلاه المدير التنفيذي جان لايكي. شارك الثنائي في قيادة فريق Superalignment، الذي تم تكليفه ببناء ضمانات لمنع الذكاء العام الاصطناعي من الانحراف.

اتهم Leike OpenAI بوضع “المنتجات اللامعة” قبل السلامة وادعى أن فريق Superalignment كان “يكافح من أجل موارد الحوسبة” وأن “إنجاز هذا البحث المهم أصبح أكثر صعوبة.”

وجاء خروج هذا الأسبوع والأسبوع الماضي بعد خروج باحثين آخرين في مجال السلامة، هما دانييل كوكوتاجلو ووليام سوندرز، اللذين استقالا في الأشهر الأخيرة لأسباب مماثلة. وقال كوكوتايلو إنه غادر بعد “فقد الثقة في أن (OpenAI) ستتصرف بمسؤولية في وقت قريب من الذكاء الاصطناعي العام”.

لم يستجب OpenAI على الفور لطلب التعليق من Business Insider.

شاركها.