شركة Anthropic، المعروفة بتركيزها على تطوير الذكاء الاصطناعي بشكل آمن، تتخلى عن مبدأ أساسي كان يميزها وهو تعليق توسيع نطاق أو تأخير نشر نماذجها الجديدة عند تجاوز قدراتها لإجراءات السلامة. يأتي هذا التغيير في ظل سباق محموم في مجال الذكاء الاصطناعي وغياب أطر تنظيمية حكومية فعالة، مما يمنح الشركة مرونة أكبر في تطوير ونشر تقنياتها المتقدمة.
في بيان رسمي، أعلنت Anthropic أنها لن تلتزم بعد الآن بالتعهد “بتعليق توسيع النطاق و/أو تأخير نشر النماذج الجديدة” عندما تتجاوز هذه التطورات تدابير السلامة الخاصة بها. هذا التحول يعني أن الشركة ستكون أقل تقييدًا بالمخاوف المتعلقة بالسلامة في وقت يشهد فيه روبوت الدردشة الرائد الخاص بها، Claude، اضطرابًا في الأسواق المالية وإثارة مخاوف بشأن مستقبل البرمجيات.
تغيير السياسة الأساسية لـ Anthropic
كجزء من هذه التغييرات، وضعت Anthropic الآن توصيات سلامة منفصلة، تسمى “سياسة التوسع المسؤول” (Responsible Scaling Policy)، مخصصة لها ولمجتمع الذكاء الاصطناعي ككل. تم بناء هذه السياسة بشكل فضفاض على غرار مستويات السلامة الحيوية (BSL) الحكومية الأمريكية.
صرح جارد كابلان، كبير مسؤولي العلوم في Anthropic، لـ Time Magazine بأن سياسة التوسع المسؤول لم تعد متوافقة مع الوضع الحالي لسباق الذكاء الاصطناعي. وأوضح كابلان: “شعرنا أنه لن يكون من المفيد لأحد أن نتوقف عن تدريب نماذج الذكاء الاصطناعي. لم نشعر حقًا، مع التقدم السريع للذكاء الاصطناعي، أنه من المنطقي أن نلتزم بالتزامات أحادية الجانب… إذا كان المنافسون يتقدمون بسرعة.”
في بيان، أكدت متحدثة باسم Anthropic أن السياسة الجديدة “هي الأقوى حتى الآن فيما يتعلق بالمساءلة العامة والشفافية”، حيث تتطلب تقارير مخاطر عامة كل ثلاثة إلى ستة أشهر. وأضافت المتحدثة: “منذ البداية، قلنا إن وتيرة الذكاء الاصطناعي وعدم اليقين في هذا المجال سيتطلبان منا المراجعة والتحسين السريع للسياسة.”
ومع ذلك، لا تزال السياسة الجديدة تتضمن التزامًا بتأخير تطوير أو إصدار نموذج ذكاء اصطناعي “ذي قدرة عالية جداً”، ولكن فقط في ظروف أكثر محدودية. في تدوينة مطولة، أشارت Anthropic إلى “مناخ سياسي مناهض للتنظيم” كأحد الأسباب وراء قرارها. كانت الشركة ورئيسها التنفيذي، داريو أمودي، قد ضغطا من أجل تنظيمات الذكاء الاصطناعي مع بعض النجاح على مستوى الولايات، لكن دون خطوات كبيرة على المستوى الفيدرالي.
“نحن لا نزال مقتنعين بأن المشاركة الحكومية الفعالة بشأن سلامة الذكاء الاصطناعي ضرورية وقابلة للتحقيق، ونهدف إلى مواصلة تعزيز حوار قائم على الأدلة، ومصالح الأمن القومي، والقدرة التنافسية الاقتصادية، وثقة الجمهور. لكن هذا يثبت أنه مشروع طويل الأجل – وليس شيئًا يحدث بشكل طبيعي مع ازدياد قدرة الذكاء الاصطناعي أو عبوره لحدود معينة.”
أوضحت الشركة أن سياسة التوسع كانت مصممة دائمًا لتكون “وثيقة حية”، وتم عرضها في نسختها الأولى في عام 2023. ومع ذلك، صرح أمودي سابقًا أن سياسة السلامة كانت تهدف إلى تخفيف المخاطر التي يمكن أن يطلقها الذكاء الاصطناعي – مستشهدًا بنصيحة العم ماوس الشهيرة لبيتر باركر، المعروف أيضًا باسم سبايدر مان: “قوة النماذج وقدرتها على حل جميع هذه المشاكل في علم الأحياء، وعلم الأعصاب، والتنمية الاقتصادية، والحكم، والسلام، وأجزاء كبيرة من الاقتصاد، تأتي مع مخاطر أيضًا، أليس كذلك؟ مع السلطة العظيمة تأتي مسؤولية عظيمة.”
ذكرت Anthropic أن سببًا آخر لتغيير المعايير هو أن المستويات النظرية الأعلى للخطر، ASL-4 وما بعدها، في إطار عملها، لا يمكن احتواؤها بواسطة شركة واحدة بمفردها. (في عالم الأمن البيولوجي، يشير BSL-4 إلى أعلى مستوى من الحماية الذي تطبقه مجموعة صغيرة جدًا من المختبرات للتعامل مع مسببات الأمراض مثل فيروس إيبولا.)
السلامة في جوهر Anthropic
لقد صرح أمودي مرارًا وتكرارًا بأن التزام شركته بالسلامة واضح في أحد أهم قراراتها الأولى: تأجيل إصدار Claude في صيف عام 2022. وب بالنظر إلى الوراء، ذكر أمودي أن Anthropic كانت قلقة من أنها لا تستطيع تطوير ضمانات بالسرعة الكافية للإصدار العام لتقنية اختراق. أصدرت OpenAI ChatGPT في نوفمبر 2022، مما أطلق سباق الذكاء الاصطناعي. بعد أشهر، أصدرت Anthropic أخيرًا Claude.
“كان ذلك مكلفًا تجاريًا للغاية،” قال أمودي خلال مقابلة حديثة مع المستثمر نيكيل كاماث. “ربما تنازلنا عن الصدارة في مجال الذكاء الاصطناعي الاستهلاكي بسبب ذلك.”
يأتي تغيير السياسة أيضًا في الوقت الذي تواجه فيه Anthropic ضغوطًا من البنتاغون بشأن الخطوط الحمراء التي وضعتها الشركة لاستخدام نماذج الذكاء الاصطناعي الخاصة بها. اجتمع أمودي مع وزير الدفاع بيت هيغسيث لمناقشة القضية. تواجه Anthropic موعدًا نهائيًا يوم الجمعة، وإلا فقد يسعى هيغسيث إلى استخدام صلاحياته لإجبار الشركة على التراجع.
يُشار إلى إحدى وثائق التدريب السابقة لـ Claude داخليًا باسم “وثيقة الروح” (Soul doc)، وهي مثال على الخطاب الذي سيكون غير مناسب في معظم شركات الذكاء الاصطناعي الأخرى. ضغط كاماث على أمودي بشأن كيفية رده على المنتقدين الذين يقولون إن Anthropic تضغط من أجل التنظيم فقط لوقف نمو المنافسين المستقبليين. قال أمودي إن قرار عام 2022 كان مثالًا على كيف تدعم شركته كلامها حول السلامة. وأشار أيضًا إلى الدعوة إلى فرض ضوابط تصدير أمريكية على الرقائق المتقدمة إلى الصين، وهو موقف انتقدته الرئيسة التنفيذية لشركة Nvidia، جنسن هوانغ.
“أي شخص يعتقد أننا نستفيد من كوننا الوحيدين الذين يقومون بذلك، من الصعب جدًا تصور موقف حيث يكون هذا هو الحال،” قال أمودي. “تنظر إلى أي من هذه الأمور، ‘حسنًا، جيد،’ ولكن عندما تضع الكثير منها معًا، لا أعرف، أدعوك للحكم علينا من خلال أفعالنا.”
يُنتظر أن تواصل Anthropic دفع محادثات مع الحكومات بشأن تنظيم الذكاء الاصطناعي، على الرغم من تكييف سياساتها الداخلية. سيراقب المراقبون عن كثب ما إذا كانت التطورات المستقبلية في نماذج الذكاء الاصطناعي، مثل Claude، ستتجاوز قدرة الشركة على تطبيق تدابير السلامة، وما إذا كانت الجهود التنظيمية الحكومية ستواكب السرعة المتزايدة للتطور التكنولوجي.
