في حالة عدم وجود تنظيم اتحادي أقوى ، بدأت بعض الولايات في تنظيم التطبيقات التي تقدم “علاج” الذكاء الاصطناعي مع تحول المزيد من الناس إلى الذكاء الاصطناعي للحصول على مشورة الصحة العقلية.
لكن القوانين ، التي مرت جميعها هذا العام ، لا تتناول تمامًا المشهد السريع لتطوير برامج الذكاء الاصطناعي. ويقول مطورو التطبيقات وصانعي السياسات ودعاة الصحة العقلية إن الإرقاء الناتج عن قوانين الدولة لا يكفي لحماية المستخدمين أو محاسبة المبدعين للتكنولوجيا الضارة.
وقالت كارين أندريا ستيفان ، الرئيس التنفيذي والمؤسس المشارك لتطبيق earkick للصحة العقلية: “الحقيقة هي أن الملايين من الناس يستخدمون هذه الأدوات وهم لا يعودون”.
___
ملاحظة المحرر – تتضمن هذه القصة مناقشة الانتحار. إذا كنت أنت أو أي شخص تعرفه بحاجة إلى مساعدة ، فإن شريان الحياة الوطني للانتحار والأزمات في الولايات المتحدة متاح عن طريق الاتصال أو الرسائل النصية 988. هناك أيضًا دردشة عبر الإنترنت في 988Lifeline.org.
___
قوانين الولاية تتخذ أساليب مختلفة. إلينوي و نيفادا حظرت استخدام الذكاء الاصطناعي لعلاج الصحة العقلية. يوتا وضعت حدود معينة على chatbots العلاج ، بما في ذلك مطالبةهم بحماية المعلومات الصحية للمستخدمين والكشف بوضوح عن أن chatbot ليس بشريًا. بنسلفانياو نيو جيرسي و كاليفورنيا تدرس أيضًا طرقًا لتنظيم علاج الذكاء الاصطناعي.
يختلف التأثير على المستخدمين. وقد منعت بعض التطبيقات الوصول في الحالات مع الحظر. يقول آخرون إنهم لا يقومون بأي تغييرات لأنهم ينتظرون المزيد من الوضوح القانوني.
والعديد من القوانين لا تغطي chatbots العامة مثل chatgpt، والتي لا يتم تسويقها بشكل صريح للعلاج ولكن يتم استخدامها من قبل عدد لا يحصى من الناس لذلك. جذبت تلك الروبوتات الدعاوى القضائية في حالات مروعة حيث المستخدمين فقد قبضتهم على الواقع أو أخذوا حياتهم الخاصة بعد التفاعل معهم.
وافق فيل رايت ، الذي يشرف على ابتكار الرعاية الصحية في الجمعية النفسية الأمريكية ، على أن التطبيقات يمكن أن تملأ الحاجة ، مع الإشارة إلى مستوى البلاد نقص مقدمي الصحة العقلية، ارتفاع تكاليف الرعاية والوصول غير المتكافئ للمرضى المؤمن عليهم.
وقال رايت إن برامج chatbots للصحة العقلية المتجذرة في العلوم ، والتي تم إنشاؤها مع مدخلات الخبراء ومراقبتها من قبل البشر يمكن أن تغير المشهد.
وقالت: “قد يكون هذا شيئًا يساعد الناس قبل أن يصلوا إلى الأزمة”. “هذا ليس ما هو موجود في السوق التجارية حاليًا.”
وقالت إن هذا هو السبب في حاجة إلى التنظيم الفيدرالي والإشراف.
في وقت سابق من هذا الشهر ، أعلنت لجنة التجارة الفيدرالية أنها كانت فتح الاستفسارات في سبع شركات chatbot منظمة العفو الدولية – بما في ذلك الشركات الأم في Instagram و Facebook و Google و ChatGpt و Grok (The Chatbot on X) و Farch.ai و Snapchat – حول كيفية “قياس ومراقبة الآثار السلبية المحتملة لهذه التكنولوجيا على الأطفال والمراهقين”. وتعقد إدارة الغذاء والدواء لجنة استشارية في 6 نوفمبر للمراجعة أجهزة الصحة العقلية التي تدعم الذكاء الاصطناعي.
وقال رايت إن الوكالات الفيدرالية يمكن أن تنظر في قيود على كيفية تسويق دردشة ، والحد من الممارسات الإدمانية ، وتتطلب إفصاحات للمستخدمين بأنهم ليسوا مقدمي خدمات طبيين ، ويطلب من الشركات تتبع وإبلاغ أفكار الانتحار ، وتقديم حماية قانونية للأشخاص الذين يبلغون عن ممارسات سيئة من قبل الشركات.
لم تمنع كل التطبيقات الوصول
من “التطبيقات المصاحبة” إلى “المعالجين الذاتي” إلى تطبيقات “العافية العقلية” ، يتنوع استخدام الذكاء الاصطناعي في الرعاية الصحية العقلية ويصعب تحديده ، ناهيك عن كتابة القوانين حولها.
وقد أدى ذلك إلى طرق تنظيمية مختلفة. بعض الدول ، على سبيل المثال ، تهدف إلى تطبيقات مصاحبة هذا مصمم فقط للصداقة، لكن لا تقف في رعاية الصحة العقلية. حظر القوانين في إلينوي ونيفادا المنتجات التي تدعي أنها توفر علاجًا للصحة العقلية بشكل مباشر ، مما يهدد غرامات تصل إلى 10،000 دولار في إلينوي و 15000 دولار في نيفادا.
ولكن حتى تطبيق واحد يمكن أن يكون من الصعب تصنيفه.
قال ستيفان من Earkick إنه لا يزال هناك الكثير “موحل للغاية” بشأن قانون إلينوي ، على سبيل المثال ، ولم تحد الشركة من الوصول إلى هناك.
توقف ستيفان وفريقها في البداية من الاتصال بـ chatbot ، والذي يشبه الباندا الكرتونية ، وهو معالج. ولكن عندما بدأ المستخدمون في استخدام الكلمة في المراجعات ، تبنوا المصطلحات حتى يظهر التطبيق في عمليات البحث.
في الأسبوع الماضي ، تراجعوا باستخدام العلاج والمصطلحات الطبية مرة أخرى. وصف موقع Earkick موقع chatbot بأنه “مستشار منظمة العفو الدولية المتعاطفة ، مجهز لدعم رحلة الصحة العقلية” ، لكنها الآن “chatbot للرعاية الذاتية”.
ومع ذلك ، “نحن لا نتشخيص” ، كما حافظ ستيفان.
يمكن للمستخدمين إعداد “زر الذعر” للاتصال بأحباء موثوق به إذا كانوا في أزمة وسيقوم chatbot “بدفع” المستخدمين للبحث عن معالج إذا سوء صحتهم العقلية. وقال ستيفان إنه لم يتم تصميمه أبدًا ليكون تطبيقًا للوقاية من الانتحار ، ولن يتم استدعاء الشرطة إذا أخبر شخص ما الروبوت عن أفكار إيذاء الذات.
قالت ستيفان إنها سعيدة لأن الناس ينظرون إلى منظمة العفو الدولية بعين حرجة ، لكنهم قلقون بشأن قدرة الدول على مواكبة الابتكار.
“السرعة التي يتطور بها كل شيء هائل” ، قالت.
تطبيقات أخرى منعت الوصول على الفور. عندما يقوم مستخدمو إلينوي بتنزيل تطبيق AD Ash AI AI ، تحثهم رسالة على البريد الإلكتروني للمشرعين ، بحجة أن “التشريعات المضللة” قد حظر تطبيقات مثل Ash “مع ترك chatbots غير المنظمة ، فإنها تهدف إلى تنظيم حرية التسبب في الضرر”.
لم يستجب متحدث باسم Ash لطلبات متعددة لإجراء مقابلة.
وقال ماريو تريتو جونيور ، سكرتير وزارة التنظيم المالي والمهني في إلينوي ، إن الهدف كان في نهاية المطاف التأكد من أن المعالجين المرخصين هم الوحيدون الذين يقومون بالعلاج.
“العلاج أكثر من مجرد تبادل الكلمات” ، قال تريتو. “إنه يتطلب التعاطف ، ويتطلب حكمًا سريريًا ، ويتطلب مسؤولية أخلاقية ، لا يمكن لأي منها أن يتكرر منظمة العفو الدولية في الوقت الحالي.”
تحاول شركة ChatBot واحدة تكرار العلاج بالكامل
في مارس ، نشر فريق مقره جامعة دارتموث الأول المعروف تجربة سريرية عشوائية من chatbot من الذكاء الاصطناعي لعلاج الصحة العقلية.
كان الهدف هو وجود chatbot ، الذي يطلق عليه Therabot ، معالجة الأشخاص المصابين بالقلق أو الاكتئاب أو اضطرابات الأكل. تم تدريبه على المقالات القصيرة والنصوص التي كتبها الفريق لتوضيح استجابة قائمة على الأدلة.
وجدت الدراسة أن المستخدمين قاموا بتصنيف Therabot على غرار المعالج وكان لديهم أعراض أقل بشكل مفيد بعد ثمانية أسابيع مقارنة بالأشخاص الذين لم يستخدموها. تمت مراقبة كل تفاعل من قبل الإنسان الذي تدخل إذا كان رد chatbot ضارًا أو غير قائم على الأدلة.
وقال نيكولاس جاكوبسون ، عالم النفس السريري الذي يقود مختبره البحث ، إن النتائج أظهرت وعدًا مبكرًا ، لكن هناك حاجة إلى دراسات أكبر لإظهار ما إذا كان Therabot يعمل مع أعداد كبيرة من الناس.
وقال “المساحة جديدة للغاية لدرجة أنني أعتقد أن الحقل يحتاج إلى المضي قدمًا بحذر أكبر بكثير يحدث الآن”.
يتم تحسين العديد من تطبيقات الذكاء الاصطناعي للمشاركة وتم تصميمها لدعم كل ما يقوله المستخدمون ، بدلاً من تحدي أفكار الشعوب بالطريقة التي يفعلها المعالجون. يسير الكثيرون على خط الرفقة والعلاج ، وينفخ حدود العلاقة الحميمة المعالجين أخلاقيا.
سعى فريق Therabot إلى تجنب تلك القضايا.
التطبيق لا يزال في الاختبار وليس متاحًا على نطاق واسع. لكن جاكوبسون يقلق بشأن معنى الحظر الصارم للمطورين الذين اتبعوا مقاربة دقيقة. وأشار إلى أن إلينوي ليس لديها طريق واضح لتقديم دليل على أن التطبيق آمن وفعال.
وقال “إنهم يريدون حماية الناس ، لكن النظام التقليدي الآن هو الفشل حقًا”. “لذا ، فإن محاولة الالتزام بالوضع الراهن ليست في الحقيقة هي الشيء الذي يجب القيام به.”
يقول المنظمون والمدعون للقوانين إنهم منفتحون على التغييرات. وقال كايل هيلمان ، الذي ضغط على الفواتير في إلينوي ونيفادا من خلال انتمائه إلى الرابطة الوطنية للأخصائيين الاجتماعيين ، قال كايل هيلمان ، الذي ضغط من أجل الفواتير في إلينوي ونيفادا من خلال انتمائه إلى انتمائه إلى انتمائه من رابطة صياغة القوات في إلينوي ونيفادا ، إن محطات الدردشة اليوم ليست حلاً لنقص مقدمي الصحة العقلية.
وقال “ليس كل من يشعر بالحزن يحتاج إلى معالج”. لكن بالنسبة للأشخاص الذين يعانون من مشاكل في الصحة العقلية الحقيقية أو الأفكار الانتحارية ، “أخبرهم ،” أعلم أن هناك نقصًا في القوى العاملة ولكن هذا هو الروبوت ” – هذا موقف متميز”.
___
تتلقى وزارة الصحة والعلوم في وكالة أسوشيتيد برس الدعم من قسم تعليم العلوم في معهد هوارد هيوز للمعهد الطبي ومؤسسة روبرت وود جونسون. AP هي المسؤولة الوحيدة عن جميع المحتوى.