• استخدم حاكم ولاية كاليفورنيا جافين نيوسوم حق النقض ضد مشروع قانون سلامة الذكاء الاصطناعي يوم الأحد.
  • ويهدف مشروع القانون إلى إنشاء تدابير سلامة للشركات التي تنفق 100 مليون دولار على التدريب على الذكاء الاصطناعي.
  • وأشار نيوسوم إلى مخاوف بشأن خنق الابتكار، حيث تهيمن ولاية كاليفورنيا على تطوير الذكاء الاصطناعي.

استخدم حاكم كاليفورنيا جافين نيوسوم حق النقض ضد مشروع قانون سلامة الذكاء الاصطناعي يوم الأحد، وهو فوز لشركات الذكاء الاصطناعي ذات الثقل مثل OpenAI وشركات التكنولوجيا الكبرى التي ضغطت ضده.

تم تقديم مشروع القانون، SB 1047، في وقت سابق من هذا العام من قبل السيناتور سكوت وينر وتم تمريره من قبل جمعية ولاية كاليفورنيا الشهر الماضي. ويهدف مشروع القانون إلى فرض تطوير تدابير السلامة على الشركات التي تنفق 100 مليون دولار أو أكثر على تدريب نماذج الذكاء الاصطناعي بحيث لا يمكن استخدام التكنولوجيا الخاصة بها لإيذاء المجتمع – وهو تعريف فضفاض قال مشروع القانون إنه يمكن أن يشمل صنع أسلحة خطيرة أو القيام بهجمات إلكترونية.

وقال السيناتور وينر في بيان يوم الأحد: “إن هذا النقض يمثل انتكاسة لكل من يؤمن بالرقابة على الشركات الضخمة”.

منذ حوالي أسبوعين، قال نيوسوم إنه يشعر بالقلق بشأن “التأثير المروع” المحتمل لمشروع القانون على تطوير الذكاء الاصطناعي. وقال إنه لا يريد أن تفقد كاليفورنيا هيمنتها على مجال الذكاء الاصطناعي.

وقال المحافظ في بيان يوم الأحد: “يطبق مشروع القانون معايير صارمة حتى على الوظائف الأساسية – طالما أن نظامًا كبيرًا ينشره”. “لا أعتقد أن هذا هو أفضل نهج لحماية الجمهور من التهديدات الحقيقية التي تشكلها التكنولوجيا.”

وكان مشروع القانون المقتول الآن سيطلب أيضًا من الشركات العاملة في كاليفورنيا أن تفعل ذلك الإبلاغ عن أي حوادث تتعلق بالسلامة الناشئة عن منتجات الذكاء الاصطناعي الخاصة بهم إلى الحكومة. كان من شأنه أن يحمي المبلغين عن مخالفات الشركة ويسمح لأطراف ثالثة باختبار النماذج للتأكد من سلامتها. وقال مشروع القانون أنه إذا لزم الأمر، ينبغي للمطورين أن يكونوا قادرين على ذلك تفعيل الاغلاق الكامل من أدوات الذكاء الاصطناعي الخاصة بهم.

تعكس المناقشة في كاليفورنيا التحدي الذي تواجهه الحكومات في السير على الخط الرفيع بين السماح لشركات التكنولوجيا بالابتكار مع الحماية من المخاطر المحتملة الجديدة. قد يرغب نيوسوم أيضًا في الإشارة إلى أن الولاية مفتوحة للأعمال التجارية بعد خروج سلسلة من الشركات البارزة، بما في ذلك Chevron وTesla وOracle وCharles Schwab وCBRE.

وفي بيان أعلن عن حق النقض، أشار مكتب نيوسوم أيضًا إلى أن الحاكم وقع 17 مشروع قانون خلال الشهر الماضي يتعلق بالذكاء الاصطناعي التوليدي، والذي يتخذ إجراءات صارمة ضد التزييف العميق والمعلومات المضللة ويهدف إلى حماية الأطفال والموظفين.

إغاثة المعارضين

سيأتي حق النقض الذي استخدمه نيوسوم بمثابة ارتياح للكثيرين في وادي السيليكون الذين انتقدوا مشروع القانون، قائلين إنه سيضر بالابتكار.

وأشاد روب شيرمان، نائب رئيس ميتا للسياسة، بنيوسوم لرفضه مشروع القانون. وفي منشور على موقع X يوم الأحد، قال إن مشروع القانون كان سيضر بنمو الأعمال التجارية وخلق فرص العمل، ويكسر تقليد الولاية الطويل المتمثل في تعزيز تنمية المصادر المفتوحة.

وأشاد مارك أندريسن، الشريك العام في شركة أندريسن هورويتز Venture Capital، بقرار نيوسوم أيضًا. وفي بيان على موقع X، قال إن حق النقض يقف إلى جانب نمو كاليفورنيا وحريتها بشأن “السلامة والهلاك والانحدار”.

جيسون كوون, الرئيس التنفيذي للاستراتيجية في OpenAIحذر في رسالة أرسلها في أغسطس إلى السيناتور وينر من أن مشروع القانون يمكن أن يخنق التقدم ويدفع الشركات إلى الخروج من كاليفورنيا.

انضم صانع ChatGPT إلى شركة Meta العملاقة للتكنولوجيا في الضغط ضد مشروع القانون. وقال ميتا إن مشروع القانون يمكن أن يثبط حركة المصادر المفتوحة من خلال تعريض المطورين لمسؤوليات قانونية كبيرة.

كما أشار أندريسن هورويتز أيضًا إلى مخاوف مماثلة تتعلق بالابتكار ودفع تكاليف حملة عريضة ضد مشروع القانون.

من المؤكد أن شركات التكنولوجيا الكبرى لم تعارض مشروع القانون بالكامل.

وقال إيلون ماسك، الذي أسس شركة الذكاء الاصطناعي xAI العام الماضي، الشهر الماضي إنه على الرغم من ذلك “قرار صعب وسيثير استياء البعض” كان يعتقد أن “كاليفورنيا يجب أن تمرر على الأرجح مشروع قانون السلامة SB 1047 AI.”

يبدو أن الرئيس التنفيذي لشركة Anthropic، داريو أمودي، قد غير موقفه في منتصف المناقشة. وفي أغسطس/آب، قال إن “فوائد مشروع القانون “من المرجح أن تفوق تكاليفه”. لكنه أضاف “لسنا متأكدين من ذلك، ولا تزال هناك بعض جوانب مشروع القانون تبدو لنا مقلقة أو غامضة”.

عديد موظفو OpenAI السابقون كما أيد مشروع قانون السلامة وقال إن معارضة OpenAI لمشروع القانون كانت مخيبة للآمال.

“لقد انضممنا إلى OpenAI لأننا أردنا ضمان سلامة أنظمة الذكاء الاصطناعي القوية بشكل لا يصدق التي تطورها الشركة”، كتب الباحثان السابقان في OpenAI، William Saunders و Daniel Kokotajlo، في الرسالة. “لكننا استقالنا من OpenAI لأننا فقدنا الثقة في أنها ستعمل على تطوير أنظمة الذكاء الاصطناعي الخاصة بها بأمان وصدق ومسؤولية.”