تقول OpenAI إنها تقوم بإنشاء لجنة جديدة للسلامة والأمن وبدأت في تدريب نموذج جديد للذكاء الاصطناعي ليحل محل نظام GPT-4 الذي يدعم برنامج الدردشة ChatGPT الخاص بها.
قالت الشركة الناشئة في سان فرانسيسكو في تدوينة يوم الثلاثاء إن اللجنة ستقدم المشورة لمجلس الإدارة بالكامل بشأن “قرارات السلامة والأمن الحاسمة” لمشاريعها وعملياتها.
تصل لجنة السلامة بينما يدور الجدل حول سلامة الذكاء الاصطناعي في الشركة، والتي تم تسليط الضوء عليها بعد استقالة الباحث جان ليكه وتسويته. انتقادات في OpenAI للسماح للسلامة “بأخذ المقعد الخلفي للمنتجات اللامعة”.
قالت شركة OpenAI إنها “بدأت مؤخرًا في تدريب نموذجها الحدودي التالي” وأن نماذج الذكاء الاصطناعي الخاصة بها تقود الصناعة من حيث القدرة والسلامة، على الرغم من أنها لم تشر إلى الجدل الدائر حول ذلك. وقالت الشركة: “إننا نرحب بالنقاش القوي في هذه اللحظة المهمة”.
نماذج الذكاء الاصطناعي هي أنظمة تنبؤ يتم تدريبها على مجموعات بيانات ضخمة لإنشاء نصوص وصور ومقاطع فيديو ومحادثات شبيهة بالإنسان حسب الطلب. تعد النماذج الحدودية أقوى وأحدث أنظمة الذكاء الاصطناعي.
يشمل أعضاء لجنة السلامة الرئيس التنفيذي لشركة OpenAI سام ألتمان ورئيس مجلس الإدارة بريت تايلور، إلى جانب عضوين آخرين في مجلس الإدارة، آدم دانجيلو، الرئيس التنفيذي لشركة Quora، ونيكول سيليجمان، المستشار العام السابق لشركة Sony. وقالت OpenAI إن أربعة خبراء تقنيين وسياسيين في الشركة هم أيضًا أعضاء.
ستكون المهمة الأولى للجنة هي تقييم ومواصلة تطوير عمليات OpenAI والضمانات وتقديم توصياتها إلى مجلس الإدارة في غضون 90 يومًا. وقالت الشركة إنها ستنشر بعد ذلك علنًا التوصيات التي تتبناها “بطريقة تتفق مع السلامة والأمن”.