كيف تعرف إذا كان الذكاء الاصطناعي هل النظام قوي جدًا لدرجة أنه يشكل خطرًا أمنيًا ولا ينبغي إطلاقه دون مراقبة دقيقة؟

بالنسبة للهيئات التنظيمية التي تحاول وضع حواجز أمام الذكاء الاصطناعي، فإن الأمر يتعلق في الغالب بالحسابات. على وجه التحديد، يجب الآن الإبلاغ عن نموذج الذكاء الاصطناعي المدرب على 10 إلى 26 عملية فاصلة عائمة في الثانية إلى الحكومة الأمريكية وقد يؤدي قريبًا إلى إطلاق العنان لـ 10 … متطلبات أكثر صرامة في كاليفورنيا.

ماذا تقول؟ حسنًا، إذا كنت تحسب الأصفار، فهذا يعني 100,000,000,000,000,000,000,000,000,000، أو 100 سبتيليون، عملية حسابية في كل ثانية، باستخدام مقياس يُعرف باسم الفلوب.

إن ما يشير إليه هذا الأمر بالنسبة لبعض المشرعين والمدافعين عن سلامة الذكاء الاصطناعي هو مستوى من قوة الحوسبة قد يمكّن تكنولوجيا الذكاء الاصطناعي المتقدمة بسرعة من إنشاء أو نشر أسلحة الدمار الشامل، أو تنفيذ هجمات إلكترونية كارثية.

يعترف أولئك الذين صاغوا مثل هذه القواعد التنظيمية بأنها نقطة بداية غير مثالية للتمييز بين الشركات ذات الأداء الأعلى اليوم. أنظمة الذكاء الاصطناعي التوليدية – تم تصنيعها بشكل أساسي من قبل شركات مقرها كاليفورنيا مثل Anthropic وGoogle وMeta Platforms وOpenAI صانع ChatGPT – من الجيل التالي الذي قد يكون أكثر قوة.

وقد انتقد المنتقدون هذه العتبات ووصفوها بأنها تعسفية ــ وهي محاولة من جانب الحكومات لتنظيم الرياضيات.

في إحدى حلقات البودكاست التي أُذيعت هذا الصيف، قال المستثمر المغامر بن هورويتز: “إن نموذج العشرة إلى 26 يفشل. ماذا لو كان هذا هو حجم النموذج الذي تحتاجه لعلاج السرطان؟”

أمر تنفيذي تم توقيعه تعتمد مبادرة الرئيس جو بايدن العام الماضي على هذه العتبة. وينطبق نفس الشيء على تشريعات سلامة الذكاء الاصطناعي التي أقرتها ولاية كاليفورنيا مؤخرًا – والتي يتعين على الحاكم جافين نيوسوم التوقيع عليها أو نقضها حتى 30 سبتمبر. وتضيف كاليفورنيا مقياسًا ثانيًا إلى المعادلة: يجب أن تكلف نماذج الذكاء الاصطناعي المنظمة أيضًا 100 مليون دولار على الأقل للبناء.

وعلى خطى بايدن، قانون الذكاء الاصطناعي الشامل للاتحاد الأوروبي كما تقيس عمليات الفاصلة العائمة في الثانية، أو الفلوب، لكنها تضع الحد الأدنى 10 مرات أقل عند 10 أس 25. وهذا يشمل بعض أنظمة الذكاء الاصطناعي العاملة بالفعل. كما نظرت الحكومة الصينية في قياس قوة الحوسبة لتحديد أنظمة الذكاء الاصطناعي التي تحتاج إلى ضمانات.

لا توجد نماذج متاحة للجمهور تلبي الحد الأعلى الذي حددته كاليفورنيا، على الرغم من أنه من المرجح أن بعض الشركات بدأت بالفعل في بنائها. إذا كان الأمر كذلك، فمن المفترض أن تشارك بعض التفاصيل واحتياطات السلامة مع حكومة الولايات المتحدة. استخدم بايدن قانونًا يعود إلى حقبة الحرب الكورية لإجبار شركات التكنولوجيا على تنبيه وزارة التجارة الأمريكية إذا كانت تبني مثل هذه النماذج الذكية.

لا يزال باحثو الذكاء الاصطناعي يتجادلون حول أفضل السبل لتقييم قدرات أحدث تكنولوجيا الذكاء الاصطناعي التوليدي وكيفية مقارنتها بالذكاء البشري. هناك اختبارات تحكم على الذكاء الاصطناعي من حيث حل الألغاز أو التفكير المنطقي أو مدى سرعة ودقة التنبؤ بالنص الذي سيجيب على استفسار شخص ما. تساعد هذه القياسات في تقييم فائدة أداة الذكاء الاصطناعي لمهمة معينة، ولكن لا توجد طريقة سهلة لمعرفة أي منها قادر على تحقيق هذا القدر من الكفاءة بحيث يشكل خطرًا على البشرية.

وقال الفيزيائي أنتوني أجوير، المدير التنفيذي لمعهد مستقبل الحياة، الذي دعا إلى تمرير مشروع قانون مجلس الشيوخ في كاليفورنيا رقم 1047 وقواعد سلامة الذكاء الاصطناعي الأخرى في جميع أنحاء العالم: “هذا الحساب، وهذا الرقم الفاشل، بالإجماع العام هو أفضل شيء لدينا على هذا المنوال”.

قد تبدو الحسابات ذات النقطة العائمة خيالية، “لكنها في الحقيقة مجرد أرقام يتم إضافتها أو ضربها معًا”، مما يجعلها واحدة من أبسط الطرق لتقييم قدرة نموذج الذكاء الاصطناعي ومخاطره، كما قال أجوير.

“قال إن أغلب ما تفعله هذه الأشياء هو مجرد ضرب جداول كبيرة من الأرقام معًا. يمكنك فقط التفكير في كتابة بضعة أرقام في الآلة الحاسبة الخاصة بك وإضافتها أو ضربها. وهذا ما تفعله – عشرة تريليونات مرة أو مائة تريليون مرة.”

ولكن بالنسبة لبعض قادة التكنولوجيا، فإن هذا المقياس بسيط للغاية ومبرمج بشكل صارم. ففي ورقة بحثية نُشرت في يوليو/تموز، زعمت عالمة الكمبيوتر سارة هوكر، التي تقود قسم الأبحاث غير الربحية في شركة الذكاء الاصطناعي كوهير، أنه “لا يوجد دعم علمي واضح” لاستخدام مثل هذه المقاييس كبديل للمخاطر.

وكتبت: “إن عتبات الحوسبة كما يتم تنفيذها حاليًا قصيرة النظر ومن المرجح أن تفشل في التخفيف من المخاطر”.

هاجم رجل الأعمال الرأسمالي هورويتز وشريكه التجاري مارك أندريسن، مؤسسا شركة الاستثمار المؤثرة في وادي السيليكون أندريسن هورويتز، إدارة بايدن كما يدعم المشرعون في ولاية كاليفورنيا لوائح الذكاء الاصطناعي التي يزعمون أنها قد تقضي على صناعة الذكاء الاصطناعي الناشئة.

بالنسبة لهورويتز، فإن وضع حدود “لمقدار الرياضيات المسموح لك بإجرائها” يعكس اعتقادًا خاطئًا بأنه لن يكون هناك سوى عدد قليل من الشركات الكبرى التي تصنع النماذج الأكثر كفاءة ويمكنك وضع “حلقات ملتهبة أمامهم وسوف يقفزون من خلالها ويكون الأمر جيدًا”.

وردًا على هذه الانتقادات، أرسل راعي التشريع في ولاية كاليفورنيا خطابًا إلى شركة أندريسن هورويتز هذا الصيف للدفاع عن مشروع القانون، بما في ذلك عتباته التنظيمية.

وكتب السناتور سكوت وينر من سان فرانسيسكو أن “التنظيم عند أكثر من 10 إلى 26 من الفلوب هو طريقة واضحة لاستبعاد العديد من النماذج من متطلبات اختبار السلامة التي نعرفها، استنادًا إلى الأدلة الحالية، تفتقر إلى القدرة على التسبب في ضرر بالغ”. وقال وينر إن النماذج التي تم إصدارها للجمهور “تم اختبارها من حيث القدرات شديدة الخطورة ولن يشملها مشروع القانون”.

ويعامل كل من وينر والأمر التنفيذي الذي أصدره بايدن هذا المقياس باعتباره مؤقتًا ويمكن تعديله لاحقًا.

قال ياسين جيرنيت، الذي يقود أبحاث السياسات في شركة الذكاء الاصطناعي Hugging Face، إن مقياس الفشل ظهر “بحسن نية” قبل أمر بايدن العام الماضي ولكنه بدأ بالفعل في التقادم. يبذل مطورو الذكاء الاصطناعي المزيد من الجهد باستخدام نماذج أصغر تتطلب قوة حوسبة أقل، في حين أن الأضرار المحتملة لمنتجات الذكاء الاصطناعي الأكثر استخدامًا لن تؤدي إلى التدقيق المقترح من كاليفورنيا.

وقال جيرنيت: “بعض النماذج سيكون لها تأثير أكبر بشكل كبير على المجتمع، ويجب أن تخضع لمعايير أعلى، في حين أن بعض النماذج الأخرى أكثر استكشافية وقد لا يكون من المنطقي أن يكون لدينا نفس النوع من العملية لإصدار الشهادات لها”.

وقال أجويري إنه من المنطقي أن تكون الجهات التنظيمية سريعة الحركة، لكنه يصف بعض المعارضة لعتبة الفشل بأنها محاولة لتجنب أي تنظيم لأنظمة الذكاء الاصطناعي مع نمو قدراتها.

“يحدث كل هذا بسرعة كبيرة”، كما يقول أجويري. “أعتقد أن هناك انتقادًا مشروعًا مفاده أن هذه العتبات لا تلتقط بالضبط ما نريدها أن تلتقطه. لكنني أعتقد أنه من غير المنطقي أن ننتقل من ذلك إلى القول: “حسنًا، لا ينبغي لنا أن نفعل أي شيء ونكتفي بالتفاؤل ونأمل أن يحدث الأفضل”.

شاركها.
Exit mobile version