المعركة حول الذكاء الاصطناعي لا تحدث فقط في وادي السيليكون بين عمالقة التكنولوجيا.
ويحدث هذا أيضًا داخل قاعات الكونجرس والبيت الأبيض، حيث يحاول المشرعون اكتشاف كيفية كبح جماح التكنولوجيا دون عرقلة التقدم.
لم يتمكن الكونجرس من إقرار مجموعة شاملة من القوانين واللوائح الفيدرالية المتعلقة بالذكاء الاصطناعي – فمعظم القيود المتعلقة بالتطورات المبتكرة تم وضعها على مستوى الولاية – مما دفع الرئيس جو بايدن والرئيس السابق ترامب إلى سد الثغرات. من خلال مرسوم تنفيذي، والذي لا يقدم سوى القليل أو لا يوفر أي مسار لمحاربة الجهات الفاعلة السيئة في الصناعة التي تتجاوز الحدود.
لماذا لا يوجد لدى الولايات المتحدة تنظيم فيدرالي للذكاء الاصطناعي؟
إن إقرار التشريعات في الكونجرس يمكن أن يكون عملية بطيئة للغاية ومستحيلة في بعض الأحيان. غالبًا ما يتم إلغاء مشاريع القوانين في اللجان وفي طوابق الغرفة. سيطلب العديد من المشرعين إضافة تعديلات خاصة بهم إلى مشروع القانون حتى يفكروا في دعمه، مما يؤدي إلى تعطيل العملية بشكل أكبر.
وكانت الفوضى التي سادت الدورة الحالية، مع الاقتتال الداخلي بين الجمهوريين الذي أدى إلى إقالة رئيس مجلس النواب السابق كيفين مكارثي، سبباً في جعل الأمور أكثر سوءاً.
وحتى الآن، أقر الكونجرس الثامن عشر بعد المائة 1% فقط من كل مشاريع القوانين المقترحة.
ومع تزايد صعوبة إقرار الكونجرس لقوانين موضوعية ووضع لوائح تنظيمية للصناعة، استخدم الرؤساء الأوامر التنفيذية كوسيلة لإنشاء سوابق في الصناعات الرائدة والمتطورة، مثل الذكاء الاصطناعي.
كيف يتم التحكم في تطور الذكاء الاصطناعي؟
أصدر ترامب خلال رئاسة ترامب عدة أوامر تنفيذية تتعلق بالذكاء الاصطناعي. وفي عام 2019، وقع على “الحفاظ على القيادة الأمريكية في الذكاء الاصطناعي”، وهو أمر تنفيذي يهدف إلى تحديد حاجة الشركات إلى إعطاء الأولوية لتطوير الذكاء الاصطناعي. وفي عام 2020، أصدر “تعزيز استخدام الذكاء الاصطناعي الجدير بالثقة في الحكومة الفيدرالية”، والذي وضع مبادئ لكيفية استخدام الموظفين الفيدراليين للذكاء الاصطناعي بأمان وفعالية في العمل.
وبخلاف الأوامر التنفيذية، أنشأ ترامب “لجنة مختارة بشأن الذكاء الاصطناعي” تابعة للمجلس الوطني للعلوم والتكنولوجيا في عام 2018، والتي تواصل تقديم المشورة للبيت الأبيض بشأن الطرق التي يمكن للحكومة الفيدرالية من خلالها تعزيز نمو الذكاء الاصطناعي في الولايات المتحدة.
تم تقديم أكثر من 80 مشروع قانون يتناول الذكاء الاصطناعي بشكل مباشر أو غير مباشر في الكونغرس الـ 118 الحالي وحده، ولكن لم يتم إقرار أي منها وأصبح قانونًا، مما دفع بايدن وإدارته إلى اتباع خطى ترامب ووضع سوابق باستخدام الأمر التنفيذي.
وقع بايدن على الأمر التنفيذي بشأن “تطوير واستخدام الذكاء الاصطناعي بطريقة آمنة ومأمونة وجديرة بالثقة” قرب نهاية عام 2023. ويحدد التوجيه المؤلف من 36 صفحة معايير السلامة التي يجب على باحثي الذكاء الاصطناعي اتباعها، على الرغم من أن النقاد يقولون إنه لم يوفر سوى القليل من القوة للوكالات الفيدرالية. لإنفاذها.
كيف تختلف سياسات ترامب وبايدن في مجال الذكاء الاصطناعي؟
وقد أشادت القوى الكبرى في مجال الذكاء الاصطناعي مثل مايكروسوفت وجوجل بجهود بايدن، لكن ترامب وعد في ديسمبر 2023 بإلغاء الأمر التنفيذي.
وقال ترامب: “عندما أعيد انتخابي، سأقوم بإلغاء الأمر التنفيذي الذي أصدره بايدن بشأن الذكاء الاصطناعي، وسأحظر استخدام الذكاء الاصطناعي لفرض رقابة على خطاب المواطنين الأمريكيين منذ اليوم الأول”.
انتقدت بعض جماعات الضغط المحافظة ومؤسسات الفكر والرأي لوائح بايدن، بحجة أن الأمر التنفيذي ينتهك قانون الإنتاج الدفاعي – وهو قانون يعود إلى حقبة الحرب الكورية عام 1950 يمكّن الرئيس من إصدار لوائح وتوجيهات من جانب واحد للشركات الخاصة خلال أوقات الطوارئ – من خلال انتهاك القواعد المقصودة. الغرض من الفعل نفسه.
لا يبدو أن المدافعين عن سياسة الذكاء الاصطناعي مقتنعون تمامًا بهذه الحجة.
وقال جيسون جرين لوي، المدير التنفيذي لمركز سياسات الذكاء الاصطناعي، إن “الأوامر التنفيذية لترامب وبايدن ساهمت في التوصل إلى إجماع بين الحزبين على أن الذكاء الاصطناعي يجب أن يكون جديرا بالثقة”.
وأضاف: “لقد غيرت الثقافة”. “إنك ترى نوعًا من سياسات التوسع المسؤولة يتم طرحها على أساس طوعي من قبل بعض المختبرات الأكثر مسؤولية، ولكن هناك شركات أخرى تتجاهلها فحسب، وهو حقها القانوني في الوقت الحالي. ولا يُطلب من أحد التأكد من أنها “نتعامل مع هذه المخاطر الكارثية.”
كيف يوازن صناع السياسات بين التنظيم والابتكار؟
صرح العديد من خبراء سياسة الذكاء الاصطناعي لموقع Business Insider أنهم ليسوا ضد وضع اللوائح الفيدرالية بشأن الذكاء الاصطناعي طالما أنها لن تشل الأبحاث.
وقال بعض الخبراء، مثل ريبيكا فينلي، وهي الرئيس التنفيذي لمنظمة غير ربحية تدعى الشراكة من أجل الذكاء الاصطناعي، إن اللوائح التنظيمية ضرورية لتعزيز الابتكار. تركز منظمة Finlay غير الربحية على الترويج بشكل مسؤول لتطوير وتنظيم الذكاء الاصطناعي.
وقال فينلي: “لقد كنا واضحين للغاية بشأن الحاجة إلى وجود تنظيم من أجل تعزيز الابتكار”. “تسمح قواعد الطريق الواضحة لمزيد من الشركات بأن تكون أكثر قدرة على المنافسة في أن تكون أكثر ابتكارًا للقيام بالعمل الذي يجب القيام به إذا أردنا حقًا الاستفادة من فوائد الذكاء الاصطناعي. أحد الأشياء التي ندافع عنها بقوة هو مستوى من الشفافية فيما يتعلق بكيفية بناء هذه الأنظمة وتطويرها.”
وقالت إنها لا تعتقد أن هناك قرارًا صحيحًا أو خاطئًا بين تطوير أدوات الذكاء الاصطناعي مفتوحة المصدر أو مغلقة المصدر – وقالت إنها رأت “أضرارًا” من كلا النوعين – طالما تم تطويرهما بشكل مسؤول.
وقالت: “بدلاً من الجدال بين خيار ثنائي بين مفتوح ومغلق، أعتقد أنه من الأساسي حقًا أن نحمل جميع مطوري النماذج وموزعيها المسؤولية عن ضمان تطوير نماذجهم بأمان قدر الإمكان”.
وقد ردد دانييل تشانج، المدير الأول لمبادرات السياسات في معهد ستانفورد للذكاء الاصطناعي المرتكز على الإنسان، أمل فينلي في ألا تؤدي اللوائح إلى خنق الأبحاث.
وقال تشانغ: “نريد التأكد من أن الحوكمة حول نماذج الأساس المفتوح مفيدة على المدى الطويل للابتكار المفتوح”. “لا نريد أن نقيد في وقت مبكر جدًا تطوير الابتكار المفتوح الذي تزدهر به الأوساط الأكاديمية، على سبيل المثال، المؤسسات الأكاديمية.”
ما هي التحديات التي تواجه صياغة تنظيم الذكاء الاصطناعي؟
وقال فينلي إن إحدى أكبر العقبات التي يواجهها المشرعون في تنظيم الذكاء الاصطناعي هي “مجرد مواكبة حالة العلم والتكنولوجيا أثناء تطورهما”.
وقالت إنه من الصعب على المشرعين صياغة اللوائح لأن معظم شركات الذكاء الاصطناعي تطور نماذجها ليس في “بيئة بحثية ممولة من القطاع العام”، ولكنها تفعل ذلك بشكل خاص حتى تختار مشاركة تطوراتها.
وقال جرين لوي، من مركز سياسات الذكاء الاصطناعي: “الحل المثالي هو تمكين مكتب أو هيئة تنظيمية ما لتحديث القوانين أثناء المضي قدمًا”.
هذا ليس أسهل شيء يمكن تحقيقه.
وقال جرين لوي: “نحن أيضًا في لحظة يشعر فيها الناس بقلق بالغ بشأن تجاوزات السلطة التنفيذية وبشأن الدور المناسب للبيروقراطيات أو الخدمة المدنية”. “ولذا هناك أشخاص في الكونجرس يشككون في قدرة الكونجرس على مواكبة التغيرات في التكنولوجيا، لكنهم يشككون أيضًا في ضرورة تفويض سلطة القيام بذلك إلى وكالة ما.“
وأضاف أن الفشل في تنفيذ طريقة رسمية لتنظيم القطاع من شأنه أن يسمح للشركات فعليًا باللعب وفقًا لقواعدها الخاصة، وهو أمر لا يزعم هو ومركز سياسات الذكاء الاصطناعي أنه أفضل مسار للعمل.
وقال تشانغ إن التحدي الآخر يأتي من اختيار خبراء وباحثي الذكاء الاصطناعي لوظائف القطاع الخاص بدلا من الوظائف الحكومية، وهو نوع من “هجرة الأدمغة”.
وقال، نقلاً عن تقرير مؤشر الذكاء الاصطناعي لعام 2024 الصادر عن جامعة ستانفورد: “معظم الحاصلين على درجة الدكتوراه في الذكاء الاصطناعي الجدد في أمريكا الشمالية يذهبون إلى القطاع الخاص”. “أقل من 40% يذهبون إلى الحكومة سعيًا إلى إنشاء كل تلك اللوائح التنظيمية وهياكل الإدارة المتعلقة بالذكاء الاصطناعي.”
إن الافتقار إلى الموظفين الذين يمكنهم فهم مدى تعقيد الذكاء الاصطناعي ومستقبله بشكل كامل يضع المزيد من العبء على الكونجرس الأمريكي المسن لتنظيم التكنولوجيا بعيدة المدى، وهي مهمة صعبة.
وقال تشانغ إن هناك أيضًا فكرة خاطئة شائعة مفادها أن العمل في الحكومة يوفر فرصًا أقل للحصول على المال مقارنة بالعمل في القطاع الخاص.
وقال “هذا ليس صحيحا مئة في المئة”. “لكي تناشد الحكومات هؤلاء الطلاب التقنيين، أعتقد أنها تحتاج فقط إلى تسليط الضوء على جانب الخدمة العامة ومن ثم منحهم الموارد اللازمة ليتمكنوا من القيام بعملهم.
وفي يناير/كانون الثاني، أصدرت إدارة بايدن “نداء للخدمة” يهدف إلى حل هذه المشكلة.
وقالت الإدارة: “إننا ندعو خبراء الذكاء الاصطناعي وتمكين الذكاء الاصطناعي للانضمام إلينا لتعزيز هذا البحث والتأكد من أن الجيل القادم من نماذج الذكاء الاصطناعي آمن وجدير بالثقة”.