يشهد قطاع المحاماة في الولايات المتحدة تزايدًا في الوقائع التي يقع فيها محامون ضحايا لأخطاء تولدها أنظمة الذكاء الاصطناعي، والتي قد تخترع قضايا أو تقدم اقتباسات مفبركة. مؤخرًا، بدأ بعض المحامين في الكشف عن أسماء البرامج التي يستخدمونها، مما يضع الشركات المطورة لهذه التقنيات تحت المجهر.
أخطاء الذكاء الاصطناعي تلاحق المحامين وتثير تساؤلات حول المساءلة
في واقعة حديثة، اضطر محامٍ في لويزيانا متخصص في قضايا الإصابات الشخصية إلى تقديم اعتذار بعد تقديمه لمذكرات قانونية استشهدت بقرار قضائي حقيقي، لكنها احتوت على اقتباسات غير موجودة. ظهرت هذه الأخطاء في وثيقتين قُدمتا إلى المحكمة القضائية التاسعة عشرة في باتون روج، وتم لفت انتباه الطرف الآخر إليها.
قال المحامي روس لو بلانك، الشريك في شركة Dudley DeBosier، في رسالة خاصة إلى القاضي ويليام جوردن في 27 مارس: “أحاول فهم كيف ارتكبت هذا الخطأ”. وأوضح أنه بدأ في استخدام برنامج ذكاء اصطناعي يُدعى “Ivy” لصياغة المذكرات القانونية في وقت سابق من العام. في البداية، كان يتحقق باستمرار من الاستشهادات، وأكد أنها كانت صحيحة دائمًا عند مراجعته.
هذا الاتساق في النتائج منحه الثقة، مما دفعه في النهاية إلى التوقف عن التحقق الدقيق. وأضاف لو بلانك: “لم أعتقد أبدًا أن هذا يمكن أن يحدث لي”، مشيرًا إلى أنه لم يستطع تأكيد ما إذا كان الخطأ ناتجًا عن برنامج “Ivy” أم أنه قام بالنسخ واللصق بسرعة.
في المقابل، صرح جين ماديسواران، الرئيس التنفيذي لشركة “Ivy”، لصحيفة Business Insider بأنه بعد تدقيق شامل للقضية مع شركة Dudley DeBosier، أكدت الشركة أن “Ivy” لم يختلق أي استشهادات قضائية في هذه المسألة، بما في ذلك أي اقتباسات مفبركة.
وقد عانت شركات المحاماة الكبرى من عقوبات وفرض غرامات عليها بسبب تقديم مذكرات تحتوي على أخطاء ناتجة عن الذكاء الاصطناعي، والتي غالبًا ما يشار إليها بـ “الهلوسة”. الأسبوع الماضي، اعتذرت شركة Sullivan & Cromwell، وهي من أقدم وأعرق شركات المحاماة في الولايات المتحدة، أمام قاضٍ اتحادي بسبب خطأ مشابه.
تداعيات الوثوق بالبرمجيات القانونية المدارة بالذكاء الاصطناعي
ما يثير الاهتمام هذه المرة هو تبادل اللوم. فعندما يكشف محامٍ عن أسماء الأدوات التي استخدمها، يتم تسليط الضوء على الشركات المطورة لهذه البرمجيات، وقد تواجه هذه الشركات تداعيات على سمعتها.
جمعت شركات البرمجيات القانونية مثل Harvey و Legora و Ivy مليارات الدولارات بناءً على وعدها بجعل عمل المحامين أسرع، وتقديم مستوى من الموثوقية لا تتطابق معه الأدوات العامة. إذا بدأت برمجياتها في التسبب في إحراج لعملائها أمام المحاكم، فإن هذه الثقة تتآكل.
يقدر داميان شارلوتين، باحث فرنسي يتتبع الهلوسة في المذكرات القضائية، أن أقل من 10% من القضايا تحدد البرنامج المستخدم. ويعتقد أن العديد من المحامين يحتفظون بهذا الجزء في طي الكتمان لأنهم يعتمدون على روبوتات الدردشة المجانية مثل ChatGPT أو أدوات أخرى جاهزة قد لا تكون مصرحًا بها لعمل العملاء.
في العام الماضي، أبرزت عناوين الأخبار قصة محامٍ في شركة Latham & Watkins، دافع عن شركة Anthropic في دعوى حقوق نشر، استشهد بمقال غير موجود. ذكر المحامي أن الخطأ نتج عن استخدام روبوت الدردشة الخاص بشركة Anthropic، Claude، الذي اختلق عنوان مقال وحقوق مؤلفين.
تقوم شركة “Ivy” بتطوير برمجيات لمحامي الطرف المدعي باستخدام نماذج اللغة الكبيرة، لمساعدتهم في صياغة المستندات، وترتيب السجلات الطبية، وإرسال واستقبال طلبات الكشف. بلغت قيمة الشركة مليار دولار بعد جمع جولة تمويل بقيمة 103 ملايين دولار قبل حوالي عام. وفقًا لماديسواران، تعالج “Ivy” الآن أكثر من 200,000 مستند ونتائج أخرى شهريًا، بزيادة حوالي 100 ضعف عما كانت عليه قبل عام.
أخبر لو بلانك القاضي بأنه كان مترددًا بشأن التكنولوجيا بشكل عام بسبب “القصص المرعبة” حول القانون المخترع. وقال إنه اقتنع بعد أن عرضت “Ivy” الأداة على شركته وأكدت للمحامين أنها تمتلك آليات أمان لتقليل الأخطاء. اعتقد أن المخاطر محدودة طالما أنه أجرى بحثه القانوني الخاص ووجّه البرنامج للاعتماد فقط على مصادر معتمدة.
ثم، لفت الطرف الآخر في قضية الإصابات الشخصية انتباهه إلى أخطائه.
ظهر اعتذار لو بلانك هذا الشهر في قضية منفصلة تتعلق بحادث انزلاق وسقوط في متجر Lowe’s. اكتشف الطرف الآخر هلوسات في مذكرة قدمتها شركة Dudley DeBosier، وتم تضمين رسالة لو بلانك في طلب يحث المحكمة على توسيع نطاق تحقيقها في العقوبات المحتملة.
قدمت شركة Dudley DeBosier طلبًا لشطب طلب الطرف الآخر، بحجة أن القضايا غير مرتبطة. كما أشارت الشركة إلى أن محاميًا استخدم Claude للمساعدة في صياغة المذكرة في قضية Lowe’s.
هذا الرأي منتشر على نطاق واسع بين شركات البرمجيات وشركات المحاماة، بأن الذكاء الاصطناعي يمكن أن يساعد في البحث والصياغة، لكن المسؤولية عن المنتج النهائي تظل على عاتق الشخص الذي يوقع على الوثيقة.
ذكر ماديسواران أن “Ivy” توضح ذلك صراحة في عقودها وعمليات إشراك العملاء الجدد. كما تتضمن البرمجيات ميزات مصممة لالتقاط الأخطاء والإشارة إليها لمراجعة المحامي.
مع تسابق المهنة القانونية لتبني الذكاء الاصطناعي، من المرجح أن يتم اكتشاف الأخطاء. تزداد حكمة المحاكم بشأن هذه التقنية، ويقوم الطرف الآخر بتعديل تكتيكاته. بدلًا من مجرد مهاجمة الحجج القانونية، يقوم المحامون بفحص المذكرات بحثًا عن أخطاء يمكن أن تقوض مصداقية الطرف الآخر.
قال تشاد دادلي، الشريك المؤسس لشركة Dudley DeBosier، التي تضم حوالي 40 محاميًا، إن الشركة تدرب محاميها على مراجعة النتائج المولدة بعناية وتتطلب منهم الموافقة على استخدام التكنولوجيا بمسؤولية.
أما عن لو بلانك، فقد أعرب عن أمله في أن يتعلم المحامون الآخرون من خطئه. وأبلغ Business Insider يوم الخميس أن “Ivy” ساعدته على التحرك بشكل أسرع تحت ضغط الوقت، ولكن بعد ظهور الأخطاء، شعر بـ “الغثيان” ولم يستطع النوم.
“أنا مسؤول عن التحقق من كل شيء، بغض النظر عن نوع التكنولوجيا التي تظهر،” قال.
هو لا يلوم “Ivy” على الخطأ. ومع ذلك، فقد قرر إيقاف استخدام الأداة في الوقت الحالي.
وأضاف: “أشعر، بالنظر إلى ما حدث، أنه من العدل أن تكون هناك فترة تبريد، كما تعلمون، للاستراحة.”

