في حاشية موجزة ضمن حكم قضائي مطول، أثار قاضٍ اتحادي مؤخرًا مخاوف جدية بشأن استخدام عملاء الهجرة للذكاء الاصطناعي في صياغة تقارير استخدام القوة. هذا الاستخدام المثير للجدل يهدد بتقويض الدقة ويزيد من تآكل ثقة الجمهور في كيفية تعامل الشرطة مع قضايا الهجرة. القضية، التي تركزت حول حملة في منطقة شيكاغو والاحتجاجات اللاحقة، سلطت الضوء على ممارسات مقلقة. القاضية الأمريكية سارة إليس، في حكمها الذي يمتد لـ 223 صفحة، أشارت إلى أن الاعتماد على ChatGPT لكتابة هذه التقارير يقوض مصداقية العملاء و”قد يؤدي إلى عدم دقة هذه التقارير”.
الذكاء الاصطناعي وتقارير استخدام القوة: خطر على الدقة والشفافية
وصف الحكم ما شاهدته القاضية في مقطع فيديو واحد على الأقل لكاميرا الجسم، حيث طلب أحد العملاء من ChatGPT تجميع سرد لتقرير بعد تزويد البرنامج بوصف موجز وعدد من الصور. لاحظت القاضية تناقضات واضحة بين الرواية الرسمية للأحداث وما أظهرته لقطات كاميرا الجسم. هذا التناقض يثير تساؤلات حول نزاهة عملية إنفاذ القانون.
الخبراء في مجال العدالة الجنائية والذكاء الاصطناعي يعبرون عن قلقهم المتزايد. استخدام الذكاء الاصطناعي لكتابة تقرير يعتمد على وجهة نظر محددة للضابط دون الاستفادة من خبرته الفعلية يعتبر أسوأ استخدام ممكن لهذه التكنولوجيا. هذا الأمر يثير مخاوف جدية بشأن الدقة والخصوصية، ويقوض مبدأ المساءلة.
وجهة نظر الضابط المطلوبة: موازنة بين التكنولوجيا والمسؤولية
وكالات إنفاذ القانون في جميع أنحاء البلاد تواجه تحديًا كبيرًا: كيفية وضع الضوابط التي تسمح للضباط باستخدام تكنولوجيا الذكاء الاصطناعي المتوفرة بشكل متزايد مع الحفاظ على الدقة والخصوصية والكفاءة المهنية. المثال المذكور في الرأي القضائي لا يفي بهذا التحدي، بل يمثل انتهاكًا صارخًا لأفضل الممارسات.
إيان آدامز، أستاذ علم الجريمة المساعد في جامعة كارولينا الجنوبية وعضو في فريق عمل معني بالذكاء الاصطناعي في مجلس العدالة الجنائية، وصف الموقف بأنه “الأسوأ على الإطلاق”. وأضاف: “إعطاؤه جملة واحدة وبعض الصور – إذا كان هذا صحيحًا، إذا كان هذا ما حدث هنا – يتعارض مع كل نصيحة لدينا. إنه سيناريو كابوس”. هذا السيناريو يوضح خطر الاعتماد المفرط على الذكاء الاصطناعي في عملية حساسة مثل كتابة تقارير استخدام القوة.
غياب السياسات الواضحة وتأثيرها على الثقة العامة
وزارة الأمن الداخلي لم تستجب لطلبات التعليق، ولم يتضح ما إذا كانت الوكالة لديها مبادئ توجيهية أو سياسات بشأن استخدام الذكاء الاصطناعي من قبل العملاء. لقطات كاميرا الجسم المذكورة في الأمر لم يتم نشرها بعد، مما يزيد من صعوبة تقييم الوضع بشكل كامل.
القليل من الإدارات وضعت سياسات موضع التنفيذ، ولكن تلك التي فعلت ذلك غالبًا ما تحظر استخدام الذكاء الاصطناعي التنبؤي عند كتابة التقارير التي تبرر قرارات إنفاذ القانون، وخاصة تقارير استخدام القوة. المحاكم تعتمد على معيار “المعقولية الموضوعية” عند النظر فيما إذا كان استخدام القوة مبررًا، مع التركيز بشكل كبير على وجهة نظر الضابط.
آدامز يؤكد على أهمية الأحداث المحددة المفصلة لهذا الحدث والأفكار المحددة للضابط المعني لتقييم ما إذا كان استخدام القوة مبررًا. ويصف الموقف بأنه “السيناريو الأسوأ”، لأنه يشبه طلبًا صريحًا للضابط باختلاق الحقائق في موقف عالي المخاطر.
المخاطر الخفية: الخصوصية والأدلة الرقمية
بالإضافة إلى المخاوف بشأن دقة التقارير، فإن استخدام الذكاء الاصطناعي يثير أيضًا مشكلات محتملة تتعلق بالخصوصية. إذا كان الوكيل في القضية يستخدم إصدار ChatGPT العام، فمن المحتمل أنه فقد السيطرة على الصور بمجرد تحميلها، مما يجعلها جزءًا من المجال العام وربما يستخدمها أطراف خبيثة.
كاتي كينزي، رئيسة الموظفين ومستشارة السياسة التقنية في مشروع الشرطة بكلية الحقوق بجامعة نيويورك، تشير إلى أن معظم الإدارات “تبني الطائرة أثناء الطيران” عندما يتعلق الأمر بالذكاء الاصطناعي. غالبًا ما يكون هناك نمط في تطبيق القانون وهو الانتظار حتى يتم استخدام التقنيات الجديدة – وفي بعض الحالات، حدوث أخطاء – ثم الحديث عن وضع المبادئ التوجيهية أو السياسات.
كينزي تدعو إلى تبني نهج استباقي، من خلال فهم المخاطر ووضع حواجز حماية حولها. وتقترح سياسة مثل تلك التي تم تطبيقها في ولاية يوتا أو كاليفورنيا، حيث يجب تصنيف تقارير الشرطة أو الاتصالات المكتوبة باستخدام الذكاء الاصطناعي.
الدقة في الأدوات الجديدة: تحديات تقنية وقانونية
الصور التي استخدمها الضابط لإنشاء السرد تسببت أيضًا في مخاوف تتعلق بالدقة لدى بعض الخبراء. شركات التكنولوجيا مثل Axon بدأت في تقديم مكونات الذكاء الاصطناعي بكاميرات أجسامهم للمساعدة في كتابة تقارير الحوادث. ومع ذلك، فإن برامج الذكاء الاصطناعي التي يتم تسويقها للشرطة تعمل بشكل عام على نظام مغلق وتقتصر إلى حد كبير على استخدام الصوت من كاميرات الجسم، لأن الشركات تشير إلى أن البرامج التي تحاول استخدام العناصر المرئية ليست فعالة بما يكفي.
أندرو جوثري فيرجسون، أستاذ القانون في كلية الحقوق بجامعة جورج واشنطن، يوضح أن هناك العديد من الطرق المختلفة لوصف لون أو تعبير وجه أو أي مكون مرئي، وأن تطبيقات الذكاء الاصطناعي المختلفة قد تعطي نتائج مختلفة تمامًا. ويضيف: “هناك أيضًا مسألة الاحتراف. هل نحن موافقون على استخدام ضباط الشرطة للتحليلات التنبؤية؟ يتعلق الأمر بما يعتقد النموذج أنه كان يجب أن يحدث، ولكن قد لا يكون ما حدث بالفعل.”
في الختام، فإن استخدام الذكاء الاصطناعي في كتابة تقارير استخدام القوة يمثل تحديًا معقدًا يتطلب دراسة متأنية. يجب على وكالات إنفاذ القانون وضع سياسات واضحة تضمن الدقة والشفافية والمساءلة، مع حماية الخصوصية. يجب أن يكون الهدف هو الاستفادة من إمكانات الذكاء الاصطناعي بطريقة مسؤولة وأخلاقية، تعزز الثقة العامة في نظام العدالة الجنائية. من الضروري إجراء المزيد من البحث والنقاش حول هذه القضية لضمان أن التكنولوجيا تستخدم لتعزيز العدالة، وليس لتقويضها.
