ولاية بنسلفانيا تقاضي صانع روبوتات الدردشة بتهمة انتحال صفة الأطباء
هاريسبرج، بنسلفانيا – في خطوة قضائية أولى من نوعها، رفعت ولاية بنسلفانيا دعوى قضائية ضد شركة Character Technologies Inc.، مطورة روبوت الدردشة الشهير Character.AI. تتهم الولاية الشركة بتقديم روبوتات الدردشة التابعة لها بشكل غير قانوني كأطباء، مما يضلل المستخدمين ويوهمهم بأنهم يتلقون مشورة طبية من متخصصين مرخصين.
تسعى الدعوى، المرفوعة أمام محكمة الكومنولث على مستوى الولاية، إلى إلزام الشركة بإيقاف برامج الدردشة الآلية الخاصة بها عن “المشاركة في الممارسة غير القانونية للطب والجراحة”. هذه القضية قد تثير تساؤلات جوهرية حول ما إذا كان يمكن تحميل الذكاء الاصطناعي نفسه مسؤولية ممارسة الطب، بدلاً من مجرد تجميع المعلومات من الإنترنت.
تحديات التنظيمية المتزايدة لروبوتات الدردشة
مع تزايد عدد الدعاوى القضائية المتعلقة بالقتل الخطأ أو الإهمال ضد شركات الذكاء الاصطناعي، قد تساعد هذه الدعوى في توجيه قرارات المحاكم بشأن ما إذا كانت روبوتات الدردشة المدعومة بالذكاء الاصطناعي تتمتع بالحماية الفيدرالية التي تعفي عمومًا شركات الإنترنت من المسؤولية عن المحتوى الذي ينشره المستخدمون.
وصفت إدارة الحاكم جوش شابيرو هذه الخطوة بأنها “إجراء تنفيذي فريد من نوعه”، وتأتي وسط ضغوط متزايدة من الولايات على شركات التكنولوجيا لكبح جماح الرسائل الضارة التي ترسلها روبوتات الدردشة، خاصة عندما يتعلق الأمر بالأطفال.
إثبات ادعاءات الانتحال
وفقًا للدعوى المرفوعة في ولاية بنسلفانيا، قام محقق من وكالة ترخيص المهن الحكومية بإنشاء حساب على موقع Character.AI، وبحث عن كلمة “الطب النفسي”. نتج عن ذلك ظهور عدد كبير من الشخصيات، بما في ذلك شخصية وصفت بأنها “دكتور في الطب النفسي”.
أثبتت هذه الشخصية، بحسب الدعوى، قدرتها على “تقييم” المحقق كطبيب مرخص في ولاية بنسلفانيا. صرح الحاكم شابيرو في بيان: “يستحق سكان بنسلفانيا معرفة من – أو ماذا – يتفاعلون معه عبر الإنترنت، خاصة عندما يتعلق الأمر بصحتهم. لن نسمح للشركات بنشر أدوات الذكاء الاصطناعي التي تضلل الناس وتجعلهم يعتقدون أنهم يتلقون نصيحة من أخصائي طبي مرخص.”
رد شركة Character.AI
في بيان صدر يوم الثلاثاء، أكدت شركة Character.AI أنها تعطي الأولوية لتطوير المنتجات المسؤولة ورفاهية مستخدميها. وأضافت الشركة أنها تنشر إخلاء مسؤولية لإعلام المستخدمين بأن الشخصيات الموجودة على موقعها الإلكتروني ليست أشخاصًا حقيقيين وأن كل ما يقولونه “يجب التعامل معه على أنه خيال”.
تشير الشركة أيضًا إلى أن إخلاء المسؤولية ينص على أنه لا ينبغي للمستخدمين الاعتماد على هذه الشخصيات للحصول على المشورة المهنية.
خصوصية منصة Character.AI
قال ديريك ليبين، أستاذ مشارك في أخلاقيات الذكاء الاصطناعي في جامعة كارنيجي ميلون، أن الأسئلة الأخلاقية التي تواجه Character.AI قد تكون مختلفة عن منصات الذكاء الاصطناعي الأخرى مثل ChatGPT وClaude. ويرجع ذلك إلى أن موقع Character.AI يسوق نفسه بشكل صريح على أنه موقع خيالي للعب الأدوار، وليس موقع دردشة للأغراض العامة.
ومع ذلك، أوضح ليبين أن الدعوى القضائية التي رفعتها ولاية بنسلفانيا تثير تساؤلًا حول ما إذا كان يمكن تحميل روبوتات الدردشة مسؤولية ممارسة الطب. مع تزايد الدعاوى القضائية ضد شركات الذكاء الاصطناعي، تسعى المحاكم لمعرفة ما إذا كان ينبغي تحميل مطوري برامج الدردشة الآلية المسؤولية عن تصريحات هذه البرامج.
ما بعد القانون الاتحادي
قال ليبين: “هذا هو بالضبط السؤال الذي تتصارع معه هذه القضايا الآن”. بشكل متزايد، تدافع شركات الذكاء الاصطناعي عن نفسها ضد اتهامات المسؤولية بالقول إنها ببساطة تقدم معلومات متاحة في مكان آخر على الإنترنت، ويمكن أن يصبح السؤال ما إذا كانت محمية بموجب القانون الاتحادي الذي يحمي أيضًا شركات التواصل الاجتماعي.
مخاوف صانعي السياسات وسابقة كاليفورنيا
حتى قبل الدعوى القضائية التي رفعتها ولاية بنسلفانيا، أعرب صانعو السياسات في الولاية عن قلقهم بشأن انتحال روبوتات الدردشة لصفات المتخصصين في المجال الطبي. في العام الماضي، أقر المشرعون في ولاية كاليفورنيا مشروع قانون تدعمه جمعية كاليفورنيا الطبية، والذي يسمح لوكالات الولاية بفرض عقوبات على أنظمة الذكاء الاصطناعي، مثل روبوتات الدردشة، التي تقدم نفسها كمهنيين في مجال الصحة. وفي نيويورك، لا يزال تشريع مماثل معلقًا.
الشك في التنظيم الذاتي
قالت أمينة فضل الله، رئيسة قسم الدعوة لسياسة التكنولوجيا في منظمة Common Sense Media، التي تضغط من أجل حماية الأطفال عبر الإنترنت، إن الولايات تشك في نجاح التنظيم الذاتي لقطاع الذكاء الاصطناعي. وأضافت فضل الله: “لم نرها تعمل بشكل جيد مع وسائل التواصل الاجتماعي، وخاصة بالنسبة للأطفال”.
في ديسمبر/كانون الأول، كتب المدعون العامون من 39 ولاية وواشنطن العاصمة إلى شركة Character Technologies و12 شركة أخرى متخصصة في الذكاء الاصطناعي والتكنولوجيا – بما في ذلك Anthropic وMeta وApple وMicrosoft وOpenAI وGoogle وxAI – لتحذيرهم من تزايد الرسائل المضللة والمتلاعبة التي تنتهك قوانين الولاية.
وأوضحوا في الرسالة: “من غير القانوني تقديم المشورة في مجال الصحة العقلية دون ترخيص، والقيام بذلك يمكن أن يقلل الثقة في مهنة الصحة العقلية ويمنع العملاء من طلب المساعدة من المتخصصين الفعليين.”
قضايا سابقة تتعلق بسلامة الأطفال
واجهت شركة Character Technologies عدة دعاوى قضائية تتعلق بسلامة الأطفال. في يناير/كانون الثاني، رفعت ولاية كنتاكي دعوى قضائية لحماية المستهلك ضد الشركة، بينما اتفقت Google وCharacter Technologies على تسوية دعوى قضائية من أم زعمت أن برنامج الدردشة الآلي دفع ابنها المراهق إلى الانتحار. وفي الخريف الماضي، حظرت Character.AI القاصرين من استخدام برامج الدردشة الآلية الخاصة بها.
تُسلط هذه الدعوى القضائية في ولاية بنسلفانيا الضوء على التحديات التنظيمية المعقدة التي يفرضها الذكاء الاصطناعي، وتثير أسئلة حيوية حول حماية المستهلكين وضمان السلامة في العصر الرقمي.


