تسعى شركة ناشئة في مجال الذكاء الاصطناعي، تُدعى Checkr، إلى تحقيق هدف طموح يتمثل في تأمين عقود حكومية لتعزيز التحقق من الهوية. تهدف الشركة إلى معالجة قضايا الاحتيال والهدر في برامج المساعدات الحكومية، مثل الرعاية الطبية والضمان الاجتماعي، من خلال تطبيق تقنيات الذكاء الاصطناعي للتحقق من أهلية الأفراد.
يأمل دانييل يانيسي، الرئيس التنفيذي لشركة Checkr، أن تساهم الشركة في تقليل “الاحتيال والهدر” من خلال فحص الموظفين الجدد والتحقق من أهلية الأفراد للحصول على استحقاقات حكومية. ورغم أن الشركة لم تعلن عن أي منتجات محددة بعد، إلا أن يانيسي أشار إلى أن نظام المساعدة الحكومية الأكثر سلاسة قد يكون على بعد سنوات قليلة.
تحديات تطبيق الذكاء الاصطناعي في التحقق الحكومي
تعتمد شركة Checkr حاليًا بشكل أساسي على الذكاء الاصطناعي لإجراء فحوصات الخلفية وكشف معلومات مثل السجلات الجنائية وتقارير المركبات. وقد عقدت الشركة عقودًا كبيرة مع شركات مثل أوبر وليفت لفحص سائقيهم الجدد، وتُقدر قيمتها بأكثر من 5 مليارات دولار بعد أن جمعت 120 مليون دولار في عام 2022. وفي عام 2025، حققت Checkr إيرادات تجاوزت 800 مليون دولار وخدمت أكثر من 120 ألف عميل.
ويتمثل الهدف الرئيسي لـ Checkr في مساعدة الحكومة على معالجة “الكثير من الاحتيال الذي يحدث” في برامج مثل الرعاية الطبية، حيث يستفيد “مُسيئون” من أموال الحكومة بدلاً من الأشخاص المستحقين. وأشار يانيسي إلى صعوبة التحقق الحكومي الحالي من حالة العمل والدخل للأفراد، مما يفتح الباب أمام استغلال النظام.
في هذا السياق، أشارت دراسة أجرتها شركة Middesk، وهي منصة للتحقق من هوية الأعمال، إلى أن جزءًا كبيرًا من المدفوعات المقدمة لمقدمي الخدمات الصحية الفيدرالية بين عامي 2018 و 2024 ذهبت إلى جهات تم حظرها من البرامج الصحية الفيدرالية بسبب أنشطة إجرامية أو سوء سلوك.
لكن خبراء الذكاء الاصطناعي والسلامة أبدوا تحفظات حول قدرة أي شركة على أتمتة أنظمة المزايا والرعاية الاجتماعية بالكامل باستخدام الذكاء الاصطناعي. وأوضح ستيوارت راسل، أستاذ علوم الكمبيوتر في جامعة كاليفورنيا بيركلي، أنه “غير متفائل” بشأن نجاح خطط استخدام الذكاء الاصطناعي لتحديد أهلية الحصول على المزايا. وأشار إلى أن أنظمة الذكاء الاصطناعي، وخاصة النماذج اللغوية الكبيرة (LLMs)، تفتقر إلى القدرة على تقديم تفسيرات موثوقة لقراراتها، مما يجعل من المستحيل الطعن في القرارات الخاطئة.
بالإضافة إلى ذلك، استشهد راسل باللائحة العامة لحماية البيانات في الاتحاد الأوروبي، والتي تمنع اتخاذ قرارات ذات آثار قانونية كبيرة على الأفراد بشكل كامل بواسطة أنظمة آلية. وهذا يشير إلى وجود عقبات قانونية وتنظيمية أمام تطبيق مثل هذه الأنظمة على نطاق واسع في القطاع الحكومي.
تجارب سابقة وقضايا قانونية
من جهتها، أشارت باو باو تشانغ، أستاذة السياسات المرتبطة بالذكاء الاصطناعي في جامعة سيراكيوز، إلى أن التجارب السابقة للحكومات في دمج الأنظمة الآلية مع استحقاقات الأفراد تعد بمثابة “دروس تحذيرية”. وأكدت أنه يجب على الحكومات إجراء تقييم دقيق في الواقع قبل نشر أي أنظمة جديدة، نظرًا للتبعيات العالية التي قد تنجم عنها، كما أثبت التاريخ.
ومن الأمثلة البارزة على ذلك، التجربة الفاشلة في ولاية إنديانا الأمريكية، حيث حاولت الحكومة أتمتة نظام أهلية الرعاية الاجتماعية عن طريق التعاقد مع شركة IBM. انتهى المشروع بمعركة قانونية، حيث رفعت الولاية دعوى قضائية ضد IBM تطالب فيها بتعويض قدره 1.3 مليار دولار بسبب مشروع تم التخلي عنه. ووفقًا لسجلات المحكمة، أشارت إدارة الخدمات الاجتماعية والعائلية في إنديانا إلى أن أخطاء المعالجة التي ارتكبتها IBM أدت إلى رفض خاطئ للمزايا، مما تسبب في ضرر للمحتاجين.
وفي أستراليا، واجه نظام “Robodebt” الآلي، الذي صُمم لكشف الاحتيال في برامج الرعاية الاجتماعية، انتقادات واسعة. حيث طُلب من المستفيدين من الرعاية إعادة مبالغ قال النظام إنهم مدينون بها، بناءً على خوارزمية غير صحيحة. وقد أسفرت التحقيقات عن أن النظام تسبب في أضرار نفسية لحالات، بل ارتبط بوفاة ثلاث حالات انتحار بعد تلقيهم إنذارات خاطئة بسداد ديون غير موجودة. وقد حكمت المحكمة في عام 2019 بأن النظام غير قانوني.
الحذر والرقابة في تبني التقنيات الجديدة
في هذا السياق، أكدت إيفيوما أجونوا، مديرة برنامج الذكاء الاصطناعي ومستقبل العمل في جامعة إيموري، على ضرورة توخي الحذر عند تفويض المهام الحكومية لتقنيات الذكاء الاصطناعي. وأشارت إلى أنه في حال تبني أي وكالة حكومية للذكاء الاصطناعي، يجب تشكيل مجلس استشاري يضم خبراء في التكنولوجيا وعلماء الاجتماع، ومنح أصحاب المصلحة المتضررين صوتًا في عملية اتخاذ القرار.
“أعتقد أننا بحاجة إلى المضي قدمًا بحذر عند تفويض الوظائف الحكومية لتقنيات الذكاء الاصطناعي،” قالت أجونوا. “بينما تُروج هذه الأدوات لزيادة الكفاءة وخفض التكاليف، يجب علينا أيضًا وضع ضوابط لاستخدامها لحماية المواطنين.”
يبقى الأمر رهن التطورات المستقبلية، حيث أن خطط Checkr لهذه العقود الحكومية لا تزال في مراحلها الأولية. سيتعين على الشركة، والحكومات المهتمة، مواجهة تحديات فنية وقانونية كبيرة، بالإضافة إلى الحاجة إلى بناء الثقة العامة في أنظمة الذكاء الاصطناعي التي تتعامل مع استحقاقات المواطنين الحيوية.
