استحوذت ستايسي ويلز على المحاضرة ، وخنق الدموع عندما طلبت من القاضي إعطاء الرجل الذي أطلق النار على شقيقها وأقتلها أقصى عقوبة سابقين ممكنة للقتل الخطأ.
ما ظهر بعد ذلك أذهل أولئك في قاعة المحكمة في فينيكس الأسبوع الماضي: مقطع فيديو تم إنشاؤه من الذكاء الاصطناعى وشبه شقيقها ، كريستوفر بيلكي ، أخبرت مطلق النار أنه تم غفره.
قال القاضي إنه أحب الفيديو ويقدره ، ثم حكم على مطلق النار بالسجن 10.5 سنة – وهو الحد الأقصى لعقوبة السجن وأكثر من ما سعى المدعون العامون. في غضون ساعات من الجلسة في 1 مايو ، قدم محامي المدعى عليه إشعارًا بالاستئناف.
لن يتعامل محامي الدفاع جيسون لام مع الاستئناف ، لكنه قال من المحتمل أن يُطلب من المحكمة العليا أن تتفقد ما إذا كان القاضي يعتمد بشكل غير صحيح على الفيديو الذي تم إنشاؤه بواسطة الذكاء الاصطناعى عند إصدار الحكم على موكله.
تتصارع المحاكم في جميع أنحاء البلاد مع أفضل طريقة للتعامل مع التواجد المتزايد للذكاء الاصطناعي في قاعة المحكمة. حتى قبل أن تستخدم عائلة بيلكي الذكاء الاصطناعى لمنحه صوتًا لجزء تأثير الضحية – يُعتقد أنه أول محاكم في الولايات المتحدة – أنشأت المحكمة العليا في ولاية أريزونا لجنة تبحث في أفضل ممارسات الذكاء الاصطناعي.
في فلوريدا ، ارتدى القاضي مؤخرًا سماعة واقعية افتراضية تهدف إلى إظهار وجهة نظر المدعى عليه الذي قال إنه كان يتصرف دفاعًا عن النفس عندما يلوح بندقية محملة على ضيوف الزفاف. رفض القاضي مطالبته.
وفي نيويورك ، استخدم رجل بدون محام صورة تجسدية تم إنشاؤها من الذكاء الاصطناعى للمناقشة قضيته في دعوى قضائية عبر الفيديو. استغرق الأمر ثوانٍ فقط حتى يدرك القضاة أن الرجل يخاطبهم من شاشة الفيديو لم يكن حقيقيا.
يقول الخبراء إن استخدام الذكاء الاصطناعى في قاعات المحكمة يثير مخاوف قانونية وأخلاقية ، خاصة إذا تم استخدامه بفعالية لتأثير القاضي أو هيئة المحلفين. وهم يزعمون أنه يمكن أن يكون له تأثير غير متناسب على المجتمعات المهمشة التي تواجه الملاحقة القضائية.
وقال ديفيد إيفان هاريس ، وهو خبير في منظمة العفو الدولية في كلية إدارة الأعمال في جامعة كاليفورنيا في بيركلي: “أتصور أن هذا سيكون شكلاً من أشكال الأدلة المتنازع عليها ، جزئياً لأنه قد يكون شيئًا يزداد مزايا الأطراف التي لديها المزيد من الموارد على الأطراف التي لا تفعل ذلك”.
وقال هاريس إن الذكاء الاصطناعي يمكن أن يكون مقنعًا للغاية ، ويدرس العلماء تقاطع تكتيكات التكنولوجيا والتلاعب.
وقالت سينثيا غوديو ، أستاذ القانون في كلية الحقوق في بروكلين والمدافع العام السابق ، مع استمرار هذه التكنولوجيا في دفع حدود الممارسات القانونية التقليدية ، سيتعين على المحاكم مواجهة الأسئلة التي لم يضطروا إليها من قبل: هل تتطابق صورة AI حقًا مع شهادة الشاهد؟ هل يبالغ هذا الفيديو في ارتفاع أو وزن المشتبه به أو لون البشرة؟
قالت: “إنه بالتأكيد اتجاه مقلق ، لأنه يمكن أن ينحرف أكثر إلى أدلة مزيفة على أنه ربما لا يكتشف الناس أنها خاطئة”.
في قضية أريزونا ، أخبرت أخت الضحية وكالة أسوشيتيد برس أنها نظرت في “الأخلاق والأخلاق” لكتابة نص واستخدام شقيقها لإعطائه صوتًا أثناء جلسة النطق بالحكم.
وقال ستايسي ويلز: “كان من المهم بالنسبة لنا أن نتعامل مع هذا بالأخلاق والأخلاق وعدم استخدامه لقول الأشياء التي لن يقولها كريس أو يؤمن بها”.
وقالت جيسيكا جاتوسو ، محامية حقوق الضحايا ، التي مثلت الأسرة ، إن الضحايا يمكنهم تقديم بيانات التأثير في أي شكل رقمي في ولاية أريزونا.
عندما تم تشغيل الفيديو في قاعة المحكمة ، قالت ويلز فقط إنها وزوجها على علم بذلك.
وقال ويلز: “كان الهدف هو إنساني كريس والوصول إلى القاضي”.
بعد مشاهدته ، قال قاضي المحكمة العليا في مقاطعة ماريكوبا تود لانج إنه “أحب الجمال فيما قاله كريستوفر” في فيديو الذكاء الاصطناعي.
قال: “إنه يقول شيئًا عن الأسرة”. “لأنك أخبرتني بمدى غضبك ، وطالبت بالحد الأقصى للجمل ، وعلى الرغم من أن هذا ما تريده ، فقد سمحت لكريس بالتحدث من قلبه كما رأيت ذلك.”
عند الاستئناف ، قال محامي المدعى عليه ، إن تعليقات القاضي قد تكون عاملاً في إلغاء الحكم.
___
ساهمت في هذا التقرير في فينيكس وكيت باين في تالاهاسي بولاية فلوريدا ، ساهمت في هذا التقرير في فينيكس وكيت باين في تالاهاسي ، فلوريدا ، ساهمت في هذا التقرير في فينيس وكانت كيس بُرس سارة بارفيني سارة سارة بارفيني في لوس أنجلا ، مراسلو أسوشيتد برس ، سارة بارفيني في لوس أنجلوس ، سجال جوفيندارو في فينيكس وكيت باين في تالاهاسي بولاية فلوريدا.