إذا كنت تعتقد أن الذكاء الاصطناعي يشكل مخاطر جسيمة على البشرية، فإن الأستاذ في جامعة كارنيجي ميلون لديه أحد أهم الأدوار في صناعة التكنولوجيا في الوقت الحالي.
يقود Zico Kolter لجنة مكونة من 4 أشخاص في OpenAI تتمتع بسلطة إيقاف إصدار صانع ChatGPT لأنظمة الذكاء الاصطناعي الجديدة إذا وجدت أنها غير آمنة. يمكن أن تكون هذه التكنولوجيا قوية جدًا بحيث يمكن للأشرار استخدامها لصنع أسلحة الدمار الشامل. ومن الممكن أيضًا أن يكون برنامج chatbot جديدًا مصممًا بشكل سيء للغاية لدرجة أنه سيضر بالصحة العقلية للأشخاص.
وقال كولتر في مقابلة مع وكالة أسوشيتد برس: “نحن لا نتحدث فقط عن المخاوف الوجودية هنا”. “نحن نتحدث عن مجموعة كاملة من قضايا السلامة والأمن والمواضيع الهامة التي تظهر عندما نبدأ الحديث عن أنظمة الذكاء الاصطناعي المستخدمة على نطاق واسع.”
قامت OpenAI بتعيين عالم الكمبيوتر ليكون رئيسًا للجنة السلامة والأمن منذ أكثر من عام، لكن الموقف اكتسب أهمية متزايدة في الأسبوع الماضي عندما جعل المنظمون في كاليفورنيا وديلاوير إشراف Kolter جزءًا أساسيًا من اتفاقياتهم للسماح لـ OpenAI بـ تشكيل عمل جديد هيكل لزيادة رأس المال بسهولة أكبر وتحقيق الربح.
لقد كانت السلامة عنصرًا أساسيًا في مهمة OpenAI منذ تأسيسها كمختبر أبحاث غير ربحي قبل عقد من الزمن بهدف بناء ذكاء اصطناعي أفضل من الإنسان يفيد البشرية. ولكن بعد أن أثار إصدار ChatGPT طفرة تجارية عالمية في مجال الذكاء الاصطناعي، اتُهمت الشركة بإسراع المنتجات إلى السوق قبل أن تصبح آمنة تمامًا من أجل البقاء في مقدمة السباق. جلبت الانقسامات الداخلية التي أدت إلى الإقالة المؤقتة للرئيس التنفيذي سام ألتمان في عام 2023، تلك المخاوف من أن الشركة انحرفت عن مهمتها إلى جمهور أوسع.
واجهت المنظمة التي يقع مقرها في سان فرانسيسكو معارضة – بما في ذلك دعوى قضائية من المؤسس المشارك إيلون ماسك – عندما بدأت خطوات لتحويل نفسها إلى شركة أكثر تقليدية تهدف إلى الربح لمواصلة تطوير تقنيتها.
وتهدف الاتفاقيات التي أعلنتها شركة OpenAI الأسبوع الماضي مع المدعي العام لولاية كاليفورنيا روب بونتا والمدعي العام لولاية ديلاوير كاثي جينينغز إلى تهدئة بعض هذه المخاوف.
يوجد في قلب الالتزامات الرسمية وعد بأن القرارات المتعلقة بالسلامة والأمن يجب أن تأتي قبل الاعتبارات المالية حيث تشكل OpenAI شركة جديدة ذات منفعة عامة تخضع تقنيًا لسيطرة مؤسسة OpenAI غير الربحية.
سيكون كولتر عضوًا في مجلس إدارة المنظمة غير الربحية ولكن ليس في مجلس إدارة المنظمة غير الربحية. لكنه سيكون لديه “حقوق المراقبة الكاملة” لحضور جميع اجتماعات مجلس الإدارة الهادفة للربح وسيكون لديه إمكانية الوصول إلى المعلومات التي يحصل عليها بشأن قرارات سلامة الذكاء الاصطناعي، وفقًا لمذكرة التفاهم بين بونتا وOpenAI. كولتر هو الشخص الوحيد، إلى جانب بونتا، المذكور في الوثيقة المطولة.
وقال كولتر إن الاتفاقيات تؤكد إلى حد كبير أن لجنة السلامة التي تشكلت العام الماضي، ستحتفظ بالسلطات التي كانت تتمتع بها بالفعل. الأعضاء الثلاثة الآخرون هم أيضًا أعضاء في مجلس إدارة OpenAI، أحدهم أمريكي سابق جنرال الجيش بول ناكاسونيالذي كان قائد القيادة السيبرانية الأمريكية. واستقال ألتمان من لجنة السلامة العام الماضي في خطوة اعتبرت أنها تمنحها المزيد من الاستقلالية.
وقال كولتر: “لدينا القدرة على القيام بأشياء مثل طلب تأخير إصدارات النماذج حتى يتم استيفاء بعض التخفيفات”. ورفض القول ما إذا كانت لجنة السلامة قد اضطرت إلى وقف أو تخفيف الإفراج، مستشهدا بسرية إجراءاتها.
وقال كولتر إنه ستكون هناك مجموعة متنوعة من المخاوف بشأن عملاء الذكاء الاصطناعي التي يجب مراعاتها في الأشهر والسنوات المقبلة، بدءًا من الأمن السيبراني – “هل يمكن للوكيل الذي يواجه بعض النصوص الضارة على الإنترنت أن يقوم بتسريب البيانات عن طريق الخطأ؟” – للمخاوف الأمنية المحيطة بأوزان نماذج الذكاء الاصطناعي، وهي قيم رقمية تؤثر على كيفية أداء نظام الذكاء الاصطناعي.
وقال: “ولكن هناك أيضًا موضوعات ناشئة أو خاصة حقًا بهذه الفئة الجديدة من نماذج الذكاء الاصطناعي التي ليس لها نظائر حقيقية في مجال الأمن التقليدي”. “هل تمكّن النماذج المستخدمين الضارين من الحصول على قدرات أعلى بكثير عندما يتعلق الأمر بأشياء مثل تصميم الأسلحة البيولوجية أو تنفيذ هجمات إلكترونية ضارة؟”
وقال: “وأخيراً، هناك فقط تأثير نماذج الذكاء الاصطناعي على الناس”. “التأثير على الصحة العقلية للناس، وتأثيرات تفاعل الأشخاص مع هذه النماذج وما يمكن أن يسببه ذلك. أعتقد أن كل هذه الأمور تحتاج إلى معالجة من وجهة نظر السلامة”.
وقد واجهت OpenAI بالفعل انتقادات هذا العام حول سلوك برنامج الدردشة الآلي الرائد الخاص بها، بما في ذلك دعوى قضائية بالقتل الخطأ من آباء من كاليفورنيا، حيث انتحر ابنهم المراهق في أبريل بعد تفاعلات طويلة مع ChatGPT.
بدأ كولتر، مدير قسم التعلم الآلي في جامعة كارنيجي ميلون، دراسة الذكاء الاصطناعي كطالب جديد في جامعة جورج تاون في أوائل العقد الأول من القرن الحادي والعشرين، قبل وقت طويل من انتشاره.
قال: “عندما بدأت العمل في مجال التعلم الآلي، كان هذا مجالًا متخصصًا ومقصورًا على فئة معينة”. “لقد أطلقنا عليه اسم التعلم الآلي لأنه لم يكن أحد يرغب في استخدام مصطلح الذكاء الاصطناعي لأن الذكاء الاصطناعي كان هذا المجال القديم الذي كان يبالغ في الوعود ولم يحقق نتائج كافية.”
يتابع كولتر، البالغ من العمر 42 عامًا، شركة OpenAI منذ سنوات وكان قريبًا بدرجة كافية من مؤسسيها لدرجة أنه حضر حفل إطلاقها في مؤتمر للذكاء الاصطناعي في عام 2015. ومع ذلك، لم يتوقع مدى السرعة التي سيتقدم بها الذكاء الاصطناعي.
وقال: “أعتقد أن قلة قليلة من الناس، حتى الأشخاص الذين يعملون في مجال التعلم الآلي بعمق، توقعوا حقًا الوضع الحالي الذي نحن فيه، انفجار القدرات، وانفجار المخاطر التي تظهر الآن”.
سيراقب المدافعون عن سلامة الذكاء الاصطناعي عن كثب إعادة هيكلة OpenAI وعمل كولتر. يقول أحد أشد منتقدي الشركة إنه “متفائل بحذر”، خاصة إذا كانت مجموعة كولتر “قادرة بالفعل على توظيف موظفين ولعب دور قوي”.
قال ناثان كالفين، المستشار العام في منظمة Encode الصغيرة غير الربحية المعنية بسياسات الذكاء الاصطناعي: “أعتقد أن لديه نوع من الخلفية المنطقية لهذا الدور. يبدو أنه خيار جيد لإدارة هذا الأمر”. قال كالفن، الذي استهدفته OpenAI بمذكرة استدعاء في منزله كجزء من تقصي الحقائق للدفاع ضد دعوى Musk القضائية، إنه يريد أن تظل OpenAI وفية لمهمتها الأصلية.
قال كالفين: “قد تكون بعض هذه الالتزامات أمرًا كبيرًا حقًا إذا أخذها أعضاء مجلس الإدارة على محمل الجد”. “قد تكون أيضًا مجرد كلمات على الورق ومنفصلة تمامًا عن أي شيء يحدث بالفعل. أعتقد أننا لا نعرف أي واحدة من هذه التي نحن فيها حتى الآن.”
