لندن (أ ف ب) – من المقرر أن يمنح المشرعون في الاتحاد الأوروبي الموافقة النهائية على قانون الذكاء الاصطناعي للكتلة المكونة من 27 دولة يوم الأربعاء ، مما يضع القواعد الرائدة في العالم في المسار الصحيح ليصبح ساري المفعول في وقت لاحق من هذا العام.
يستعد المشرعون في البرلمان الأوروبي للتصويت لصالح قانون الذكاء الاصطناعي بعد خمس سنوات من اقتراحه لأول مرة. ال ومن المتوقع أن يكون قانون الذكاء الاصطناعي بمثابة علامة عالمية بالنسبة للحكومات الأخرى التي تتصارع مع كيفية تنظيم التكنولوجيا سريعة التطور.
“لقد دفع قانون الذكاء الاصطناعي مستقبل الذكاء الاصطناعي في اتجاه يتمحور حول الإنسان، في اتجاه حيث يتحكم البشر في التكنولوجيا وحيث تساعدنا – التكنولوجيا – على الاستفادة من الاكتشافات الجديدة والنمو الاقتصادي والتقدم المجتمعي وإطلاق العنان للإمكانات البشرية. وقال دراغوس تيودوراش، النائب الروماني الذي كان أحد قادة المفاوضات البرلمانية حول مشروع القانون.
شركات التكنولوجيا الكبرى لديها عموما أيد الحاجة إلى تنظيم الذكاء الاصطناعي أثناء الضغط لضمان أن أي قواعد تعمل لصالحهم. أثار سام ألتمان، الرئيس التنفيذي لشركة OpenAI، ضجة طفيفة العام الماضي عندما اقترح صانع ChatGPT يمكن أن تنسحب من أوروبا إذا لم تتمكن من الامتثال لقانون الذكاء الاصطناعي – قبل أن تتراجع لتقول إنه لا توجد خطط للمغادرة.
فيما يلي نظرة على أول مجموعة شاملة من قواعد الذكاء الاصطناعي في العالم:
كيف يعمل قانون الذكاء الاصطناعي؟
مثل العديد من لوائح الاتحاد الأوروبي، كان المقصود من قانون الذكاء الاصطناعي في البداية أن يكون بمثابة تشريع لسلامة المستهلك. اتباع “نهج قائم على المخاطر” للمنتجات أو الخدمات التي تستخدم الذكاء الاصطناعي.
كلما كان تطبيق الذكاء الاصطناعي أكثر خطورةكلما زاد التدقيق الذي يواجهه. لن تواجه الأنظمة منخفضة المخاطر، مثل أنظمة توصية المحتوى أو مرشحات البريد العشوائي، سوى قواعد خفيفة مثل الكشف عن أنها مدعومة بالذكاء الاصطناعي. ويتوقع الاتحاد الأوروبي أن تندرج معظم أنظمة الذكاء الاصطناعي ضمن هذه الفئة.
تواجه الاستخدامات عالية المخاطر للذكاء الاصطناعي، كما هو الحال في الأجهزة الطبية أو البنية التحتية الحيوية مثل شبكات المياه أو الكهرباء، متطلبات أكثر صرامة مثل استخدام بيانات عالية الجودة وتوفير معلومات واضحة للمستخدمين.
يتم حظر بعض استخدامات الذكاء الاصطناعي لأنها تعتبر أنها تشكل خطراً غير مقبول، مثل أنظمة التسجيل الاجتماعي التي تحكم سلوك الأشخاص، وبعض أنواع الشرطة التنبؤية وأنظمة التعرف على المشاعر في المدارس وأماكن العمل.
وتشمل الاستخدامات المحظورة الأخرى تقوم الشرطة بمسح الوجوه في الأماكن العامة باستخدام أنظمة “تحديد الهوية البيومترية” عن بعد والتي تعمل بالذكاء الاصطناعي، باستثناء الجرائم الخطيرة مثل الاختطاف أو الإرهاب.
ماذا عن الذكاء الاصطناعي التوليدي؟
ركزت المسودات المبكرة للقانون على أنظمة الذكاء الاصطناعي التي تنفذ مهام محدودة للغاية، مثل مسح السيرة الذاتية وطلبات العمل. الارتفاع المذهل ل نماذج الذكاء الاصطناعي للأغراض العامةوقد دفع صناع السياسات في الاتحاد الأوروبي، والذي تجسد في ChatGPT التابع لشركة OpenAI، إلى التدافع لمواكبة التطورات.
وأضافوا أحكامًا لما يسمى بنماذج الذكاء الاصطناعي التوليدية، وهي التكنولوجيا التي تقوم عليها أنظمة الدردشة الآلية بالذكاء الاصطناعي يمكنها إنتاج استجابات وصور فريدة ونابضة بالحياة وغير ذلك الكثير.
سيتعين على مطوري نماذج الذكاء الاصطناعي للأغراض العامة – بدءًا من الشركات الأوروبية الناشئة إلى OpenAI وGoogle – تقديم ملخص تفصيلي للنصوص والصور والفيديو وغيرها. البيانات الموجودة على الإنترنت والتي يتم استخدامها لتدريب الأنظمة وكذلك اتباع قانون حقوق الطبع والنشر في الاتحاد الأوروبي.
الصور المزيفة العميقة التي تم إنشاؤها بواسطة الذكاء الاصطناعييجب تصنيف مقاطع الفيديو أو الملفات الصوتية للأشخاص أو الأماكن أو الأحداث الموجودة على أنها تم التلاعب بها بشكل مصطنع.
هناك تدقيق إضافي لأكبر وأقوى نماذج الذكاء الاصطناعي التي تشكل “مخاطر نظامية”، والتي تشمل: OpenAI GPT4 — نظامها الأكثر تقدمًا — وGemini من Google.
ويقول الاتحاد الأوروبي إنه يشعر بالقلق من أن أنظمة الذكاء الاصطناعي القوية هذه يمكن أن “تتسبب في حوادث خطيرة أو يساء استخدامها لشن هجمات إلكترونية بعيدة المدى”. كما أنهم يخشون من أن الذكاء الاصطناعي التوليدي قد ينشر “تحيزات ضارة” عبر العديد من التطبيقات، مما يؤثر على العديد من الأشخاص.
سيتعين على الشركات التي توفر هذه الأنظمة تقييم المخاطر والتخفيف من حدتها؛ الإبلاغ عن أي حوادث خطيرة، مثل الأعطال التي تتسبب في وفاة شخص ما أو إلحاق ضرر جسيم بالصحة أو الممتلكات؛ ووضع تدابير الأمن السيبراني موضع التنفيذ؛ والكشف مقدار الطاقة التي تستخدمها نماذجهم.
هل تؤثر القواعد الأوروبية على بقية العالم؟
بروكسل اقترح لأول مرة تلعب لوائح الذكاء الاصطناعي في عام 2019 دورًا عالميًا مألوفًا في تشديد التدقيق في الصناعات الناشئة، بينما تتدافع الحكومات الأخرى لمواكبة ذلك.
وفي الولايات المتحدة، وقع الرئيس جو بايدن على اتفاق أمر تنفيذي شامل بشأن الذكاء الاصطناعي ومن المتوقع أن يتم دعم ذلك من خلال التشريعات والاتفاقيات العالمية. وفي غضون ذلك، يقوم المشرعون في سبع ولايات أمريكية على الأقل بذلك العمل على تشريعات الذكاء الاصطناعي الخاصة بهم.
اقترح الرئيس الصيني شي جين بينغ مبادرته العالمية لحوكمة الذكاء الاصطناعي، وأصدرت السلطات ” التدابير المؤقتة ” لإدارة الذكاء الاصطناعي التوليدي، والذي ينطبق على النصوص والصور والصوت والفيديو والمحتويات الأخرى التي يتم إنشاؤها للأشخاص داخل الصين.
وتتحرك دول أخرى، من البرازيل إلى اليابان، فضلا عن التجمعات العالمية مثل الأمم المتحدة ومجموعة الدول الصناعية السبع، لوضع حواجز حماية للذكاء الاصطناعي.
ماذا حدث بعد ذلك؟
ومن المتوقع أن يصبح قانون الذكاء الاصطناعي قانونًا رسميًا بحلول شهر مايو أو يونيو، بعد بعض الإجراءات الشكلية النهائية، بما في ذلك موافقة الدول الأعضاء في الاتحاد الأوروبي. وستبدأ الأحكام حيز التنفيذ على مراحل، حيث يُطلب من الدول حظر أنظمة الذكاء الاصطناعي المحظورة بعد ستة أشهر من دخول القواعد إلى كتب القانون.
سيبدأ تطبيق قواعد أنظمة الذكاء الاصطناعي للأغراض العامة مثل روبوتات الدردشة بعد عام من دخول القانون حيز التنفيذ. وبحلول منتصف عام 2026، ستكون المجموعة الكاملة من اللوائح، بما في ذلك متطلبات الأنظمة عالية المخاطر، سارية المفعول.
عندما يتعلق الأمر بالإنفاذ، ستقوم كل دولة من دول الاتحاد الأوروبي بإنشاء هيئة مراقبة خاصة بها للذكاء الاصطناعي، حيث يمكن للمواطنين تقديم شكوى إذا كانوا يعتقدون أنهم كانوا ضحية انتهاك القواعد. وفي الوقت نفسه، ستقوم بروكسل بإنشاء مكتب للذكاء الاصطناعي مكلف بإنفاذ القانون والإشراف عليه لأنظمة الذكاء الاصطناعي ذات الأغراض العامة.
يمكن أن تؤدي انتهاكات قانون الذكاء الاصطناعي إلى فرض غرامات تصل إلى 35 مليون يورو (38 مليون دولار)، أو 7% من الإيرادات العالمية للشركة.