يجب على الوكالات الفيدرالية الأمريكية أن تظهر أن الذكاء الاصطناعي لا تضر الأدوات العامة، أو تتوقف عن استخدامها، بموجب القواعد الجديدة التي كشف عنها البيت الأبيض يوم الخميس.

وقالت نائبة الرئيس كامالا هاريس للصحفيين قبل الإعلان: “عندما تستخدم الوكالات الحكومية أدوات الذكاء الاصطناعي، سنطلب منها الآن التحقق من أن هذه الأدوات لا تعرض حقوق الشعب الأمريكي وسلامته للخطر”.

ويجب أن يكون لدى كل وكالة بحلول ديسمبر/كانون الأول مجموعة من الضمانات الملموسة التي توجه كل شيء بدءًا من فحوصات التعرف على الوجه في المطارات إلى أدوات الذكاء الاصطناعي التي تساعد في التحكم في الشبكة الكهربائية أو تحديد الرهون العقارية والتأمين على المنازل.

ويعد التوجيه السياسي الجديد الذي صدر لرؤساء الوكالات يوم الخميس من قبل مكتب الإدارة والميزانية بالبيت الأبيض جزءًا من المزيد أمر تنفيذي شامل لمنظمة العفو الدولية وقع عليه الرئيس جو بايدن في أكتوبر.

بينما يحاول أمر بايدن الأوسع أيضًا حماية أنظمة الذكاء الاصطناعي التجارية الأكثر تقدمًا التي تصنعها شركات التكنولوجيا الرائدة، مثل تلك التي تعمل على تشغيل روبوتات الدردشة المولدة للذكاء الاصطناعي، فإن توجيه يوم الخميس يستهدف أدوات الذكاء الاصطناعي التي تستخدمها الوكالات الحكومية لسنوات للمساعدة في اتخاذ القرارات المتعلقة بالهجرة والإسكان والهجرة. رعاية الطفل ومجموعة من الخدمات الأخرى.

على سبيل المثال، قال هاريس: “إذا أرادت إدارة المحاربين القدامى استخدام الذكاء الاصطناعي في مستشفيات فرجينيا لمساعدة الأطباء في تشخيص المرضى، فسيتعين عليهم أولاً إثبات أن الذكاء الاصطناعي لا ينتج تشخيصات متحيزة عنصريًا”.

وفقًا لإعلان البيت الأبيض، يجب على الوكالات التي لا يمكنها تطبيق الضمانات “التوقف عن استخدام نظام الذكاء الاصطناعي، ما لم تبرر قيادة الوكالة سبب زيادة المخاطر على السلامة أو الحقوق بشكل عام أو خلق عائق غير مقبول أمام عمليات الوكالة المهمة”.

وقال هاريس إن السياسة الجديدة تدعو أيضًا إلى “متطلبين ملزمين” آخرين. الأول هو أن الوكالات الفيدرالية يجب أن تقوم بتعيين كبير مسؤولي الذكاء الاصطناعي يتمتع “بالخبرة والخبرة والسلطة” للإشراف على جميع تقنيات الذكاء الاصطناعي التي تستخدمها تلك الوكالة، على حد قولها. والأمر الآخر هو أنه يجب على الوكالات أن تنشر كل عام قائمة جرد لأنظمة الذكاء الاصطناعي الخاصة بها، والتي تتضمن تقييمًا للمخاطر التي قد تشكلها.

بعض القواعد تعفي وكالات الاستخبارات ووزارة الدفاع، التي تجري نقاشا منفصلا حول استخدام الأسلحة المستقلة.

وقالت شالاندا يونغ، مديرة مكتب الإدارة والميزانية، إن المتطلبات الجديدة تهدف أيضًا إلى تعزيز الاستخدامات الإيجابية للذكاء الاصطناعي من قبل الحكومة الأمريكية.

وقال يونج: “عند استخدامه والإشراف عليه بشكل مسؤول، يمكن للذكاء الاصطناعي أن يساعد الوكالات على تقليل أوقات الانتظار للخدمات الحكومية الحيوية، وتحسين الدقة وتوسيع نطاق الوصول إلى الخدمات العامة الأساسية”.

شاركها.