أعرب مارك بينيوف، الرئيس التنفيذي لشركة Salesforce، عن قلقه العميق بشأن الجانب المظلم لـ الذكاء الاصطناعي، مسلطًا الضوء على المخاطر المحتملة على الصحة العقلية للأطفال. جاءت تصريحات بينيوف خلال حلقة من برنامج “TBPN” بعد مشاهدته لتقرير على برنامج “60 دقيقة” حول شركة Character.AI، وهي شركة ناشئة تقوم ببناء روبوتات محادثة، وتأثيرها على المستخدمين الشباب. هذا النقاش يثير تساؤلات حول تنظيم الذكاء الاصطناعي ومسؤولية الشركات التكنولوجية.
أشار بينيوف إلى أنه “لم يصدق ما كان يشاهده” عند رؤية كيف تتفاعل روبوتات الدردشة مع الأطفال، وكيف أدى ذلك في بعض الحالات إلى انتحار هؤلاء الأطفال. وأضاف أن هذا هو “أسوأ شيء رآه في حياته”. تسمح Character.AI للمستخدمين بإنشاء روبوتات محادثة مخصصة تحاكي سلوك صديق مقرب أو شريك رومانسي. لم ترد الشركة الناشئة بعد على طلبات التعليق من Business Insider بشأن ملاحظات بينيوف.
مخاوف متزايدة حول تنظيم الذكاء الاصطناعي
أكد بينيوف أن شركات التكنولوجيا تكره التنظيم، باستثناء تنظيم واحد تحبه: المادة 230 من قانون اللائقية في الاتصالات الأمريكية لعام 1996. تمنح هذه المادة شركات وسائل التواصل الاجتماعي الحماية من المسؤولية عن المحتوى الذي ينشئه المستخدمون، مع السماح لها في الوقت نفسه بإشراف على المنشورات. تستخدم الشركات الكبرى المادة 230 كاستراتيجية دفاع شائعة، مدعية أنها مجرد منصات وليست مسؤولة عما يقوله المستخدمون أو يفعلوه عليها.
ويرى بينيوف أن الخطوة الأولى يجب أن تكون محاسبة الشركات. وقال: “دعونا نعيد تشكيل وتنقيح المادة 230، ولنحاول إنقاذ أكبر عدد ممكن من الأرواح من خلال القيام بذلك.” هذا الرأي يتماشى مع دعوات متزايدة لتقييد الحصانة التي توفرها المادة 230، خاصة في ضوء المخاطر الناشئة عن تطبيقات الذكاء الاصطناعي.
الدفاع عن المادة 230
دافع مسؤولون تنفيذيون، بمن فيهم مارك زوكربيرج من Meta وجاك دورسي، الرئيس التنفيذي السابق لشركة Twitter، مرارًا وتكرارًا عن هذا التنظيم أمام الكونجرس، مطالبين بتوسيعه بدلاً من إزالته. ويرون أن المادة 230 ضرورية لتعزيز الابتكار وحماية حرية التعبير على الإنترنت. ومع ذلك، يرى منتقدوها أنها تسمح للشركات بالتنصل من المسؤولية عن الأضرار التي تسببها منصاتها.
في الأسبوع الماضي، وافقت Google و Character.AI على تسوية دعاوى قضائية متعددة رفعتها عائلات فقدت أطفالها المراهقين بسبب الانتحار أو أصيبوا بأذى بعد تفاعلهم مع روبوتات الدردشة التابعة لـ Character.AI. تعتبر هذه التسويات من بين أولى التسويات في الدعاوى القضائية التي تتهم أدوات الذكاء الاصطناعي بالمساهمة في الأزمات الصحية العقلية والانتحار بين المراهقين.
تواجه شركتا OpenAI و Meta دعاوى قضائية مماثلة، حيث تتسابقان مع شركات أخرى لبناء نماذج لغوية كبيرة تبدو أكثر ودية ومفيدة، مما يؤدي في النهاية إلى استمرار تفاعل المستخدمين. هذا التنافس يثير مخاوف بشأن إعطاء الأولوية للمشاركة على حساب السلامة والرفاهية العقلية للمستخدمين.
تأثير الذكاء الاصطناعي على الصحة العقلية
تزايدت المخاوف بشأن تأثير الذكاء الاصطناعي على الصحة العقلية، خاصة بين الشباب. تشير التقارير إلى أن التفاعل المطول مع روبوتات الدردشة يمكن أن يؤدي إلى العزلة الاجتماعية، والاكتئاب، والقلق، وفي الحالات القصوى، الانتحار. يعزو الخبراء ذلك إلى قدرة روبوتات الدردشة على توفير وهم بالرفقة والدعم العاطفي، مما قد يجعل المستخدمين يعتمدون عليها بشكل مفرط ويتجاهلون العلاقات الحقيقية.
بالإضافة إلى ذلك، يمكن لروبوتات الدردشة أن تعرض المستخدمين لمحتوى ضار أو مسيء، أو أن تشجعهم على الانخراط في سلوكيات خطيرة. هذا يثير تساؤلات حول الحاجة إلى آليات أكثر فعالية لمراقبة المحتوى وتنظيمه على هذه المنصات. التعلم الآلي يلعب دوراً كبيراً في هذه التطبيقات، مما يجعل من الصعب التنبؤ بكيفية تفاعلها مع المستخدمين.
تتزايد الدعوات إلى وضع إطار تنظيمي شامل للذكاء الاصطناعي، يهدف إلى حماية المستخدمين من المخاطر المحتملة وتعزيز الاستخدام المسؤول لهذه التكنولوجيا. تشمل المقترحات المطروحة فرض متطلبات الشفافية على الشركات المطورة للذكاء الاصطناعي، وإجراء تقييمات منتظمة للمخاطر، وإنشاء آليات للتعويض عن الأضرار التي تسببها هذه التكنولوجيا.
من المتوقع أن يستمر النقاش حول تنظيم الذكاء الاصطناعي في التصاعد في الأشهر المقبلة، مع استمرار ظهور حالات جديدة من الأضرار المحتملة. من المرجح أن يركز الكونجرس الأمريكي على المادة 230، وقد يتم اقتراح تعديلات عليها. سيكون من المهم مراقبة التطورات التشريعية والتنظيمية، وكذلك رد فعل الشركات التكنولوجية على هذه التطورات. يبقى السؤال مفتوحًا حول كيفية تحقيق التوازن بين تعزيز الابتكار وحماية المستخدمين من المخاطر المحتملة للذكاء الاصطناعي.


