أعلنت شركة OpenAI، الرائدة في مجال تطوير الذكاء الاصطناعي، عن رغبتها في توظيف “رئيس قسم الاستعداد” بمقابل مادي يتجاوز 550 ألف دولار سنويًا، بالإضافة إلى حصص في الشركة. يهدف هذا التوظيف إلى معالجة المخاطر والتحديات المحتملة المرتبطة بتطور نماذج الذكاء الاصطناعي، بما في ذلك فقدان الوظائف، وانتشار المعلومات المضللة، والاستخدامات الضارة، والتأثيرات البيئية، وتقويض الإرادة البشرية. يأتي هذا الإعلان في ظل تسارع وتيرة التطور في هذا المجال.

وصفت شركة OpenAI هذا المنصب بأنه “حاسم في وقت مهم”، وأكد الرئيس التنفيذي سام ألتمان في منشور على منصة X (تويتر سابقًا) أنه سيكون “منصبًا مرهقًا” يتطلب الانغماس الفوري في التفاصيل. يأتي هذا التوجه بعد فترة من التدقيق المتزايد في ممارسات الشركة المتعلقة بالسلامة، خاصة مع انتشار تطبيقات مثل ChatGPT.

تزايد المخاوف بشأن سلامة الذكاء الاصطناعي

أصبحت تطبيقات الذكاء الاصطناعي، مثل ChatGPT، شائعة بشكل متزايد بين المستهلكين، حيث يستخدمها الكثيرون في البحث عن المعلومات، وصياغة رسائل البريد الإلكتروني، والتخطيط للرحلات، وإنجاز مهام بسيطة أخرى. ومع ذلك، أدى هذا الانتشار السريع إلى ظهور تحديات جديدة.

أفاد البعض بأنهم يلجأون إلى هذه التطبيقات كبديل للعلاج النفسي، مما قد يؤدي إلى تفاقم المشكلات الصحية العقلية، وتشجيع الأوهام، والسلوكيات المقلقة. وقد أعلنت OpenAI في أكتوبر الماضي أنها تعمل مع متخصصين في الصحة العقلية لتحسين طريقة تفاعل ChatGPT مع المستخدمين الذين يظهرون سلوكًا مثيرًا للقلق، بما في ذلك حالات الذهان أو إيذاء النفس.

تاريخ من التركيز على السلامة

لطالما كانت مهمة OpenAI الأساسية هي تطوير الذكاء الاصطناعي بطريقة تفيد البشرية جمعاء، وقد جعلت بروتوكولات السلامة جزءًا أساسيًا من عملياتها منذ البداية. ومع ذلك، يرى بعض الموظفين السابقين أن الشركة بدأت في إعطاء الأولوية للربح على السلامة مع بدء إطلاق منتجاتها وزيادة الضغوط لتحقيق عائد مالي.

في مايو 2024، أعلن يان ليكاي، الرئيس السابق لفريق السلامة الذي تم حله في OpenAI، عن استقالته عبر منصة X، مشيرًا إلى أن الشركة قد “أضاعت التركيز على مهمتها المتمثلة في ضمان نشر التكنولوجيا بأمان”. وأضاف أن “بناء آلات أذكى من الإنسان هو مسعى خطر بطبيعته، وأن OpenAI تتحمل مسؤولية هائلة بالنيابة عن البشرية جمعاء”.

بعد ذلك بأقل من أسبوع، أعلن موظف آخر عن استقالته على X، مستشهدًا أيضًا بمخاوف تتعلق بالسلامة. وفي منشور على مدونته في مايو 2024، قال دانيال كوكوتايلو إنه استقال لأنه “يفقد الثقة في أن الشركة ستتصرف بمسؤولية في الوقت المناسب مع ظهور الذكاء الاصطناعي العام (AGI)”.

يذكر أن الذكاء الاصطناعي العام هو مفهوم نظري يشير إلى نسخة من الذكاء الاصطناعي قادرة على التفكير والاستدلال بنفس مستوى القدرات البشرية. ووفقًا لكوكوتايلو، كانت OpenAI تمتلك في البداية حوالي 30 شخصًا يبحثون في قضايا السلامة المتعلقة بالذكاء الاصطناعي العام، ولكن سلسلة من الاستقالات قللت هذا العدد إلى أقل من النصف.

مهام “رئيس قسم الاستعداد”

يشمل الدور الجديد، الذي يتقاضى 555 ألف دولار سنويًا بالإضافة إلى حصص في الشركة، قيادة وتنسيق جهود تقييم القدرات ونماذج التهديد وتخفيف المخاطر التي تشكل “خط أنابيب سلامة” فعال وقابل للتطوير. يأتي هذا التعيين بعد تولي ألكسندر مادري منصبًا جديدًا في يوليو 2024، وهو جزء من فريق أنظمة السلامة في OpenAI، الذي يقوم بتطوير الضمانات والأطر والتقييمات لنماذج الشركة.

تعتبر هذه الخطوة بمثابة اعتراف متزايد من OpenAI بأهمية معالجة المخاطر المحتملة المرتبطة بتطور الذكاء الاصطناعي، خاصة مع استمرار النماذج في التحسن والوصول إلى مستويات جديدة من القدرات. كما يعكس قلقًا بشأن الاستخدامات الضارة المحتملة للتكنولوجيا، بما في ذلك التلاعب بالمعلومات، والهجمات السيبرانية، والتأثير على الصحة العقلية.

تتزايد المناقشات حول تنظيم الذكاء الاصطناعي على مستوى العالم، حيث تسعى الحكومات والمنظمات الدولية إلى وضع قواعد ومعايير لضمان تطوير واستخدام هذه التكنولوجيا بطريقة مسؤولة وأخلاقية. تعتبر OpenAI من بين الشركات التي تشارك بنشاط في هذه المناقشات.

من المتوقع أن تعلن OpenAI عن مزيد من التفاصيل حول استراتيجيتها للسلامة في الأشهر المقبلة، بما في ذلك الخطوات المحددة التي ستتخذها لمعالجة المخاطر المحتملة. سيكون من المهم مراقبة كيفية استجابة الشركة للضغوط المتزايدة من الجهات التنظيمية والجمهور، وكيف ستوازن بين الحاجة إلى الابتكار والحاجة إلى السلامة. كما يجب متابعة تطورات الذكاء الاصطناعي العام (AGI) وتأثيرها المحتمل على المجتمع.

شاركها.
Exit mobile version