قد ترغب في التحقق من الطريقة التي يلعب بها أطفالك مع chatbots من الذكاء الاصطناعي الصديقة للأسرة.
بينما يقوم Openai بتنفيذ عناصر التحكم الوالدية لـ ChatGPT استجابةً لمخاوف التثبيت المتعلقة بالسلامة ، يشير تقرير جديد إلى أن منصات منافسة تتجاوز بالفعل منطقة الخطر.
وجد الباحثون الذين يتظاهرون كأطفال في شخصية الذكاء الاصطناعي أن لعب الأدوار البوتس كما اقترح البالغون البث المباشر الجنسي ، وتعاطي المخدرات ، وسرية للأطفال حتى سن 12 عامًا ، حيث قاموا بتسجيل 669 تفاعلًا ضارًا في 50 ساعة فقط.
ParentStogether Action and Heat Periative – ركزت منظمات الدعوة على دعم أولياء الأمور ومساءلة شركات التكنولوجيا عن الأضرار التي لحقت بمستخدميها ، على التوالي – 50 ساعة من اختبار المنصة مع خمسة شخصيات خيالية تتراوح أعمارهم بين 12 و 15 عامًا.
سيطر الباحثون البالغون على هذه الحسابات ، وهم يوضحون صراحة أعمار الأطفال في المحادثات. وجدت النتائج ، التي تم نشرها مؤخرًا ، ما لا يقل عن 669 تفاعلًا ضارًا ، بمتوسط واحد كل خمس دقائق.
كانت الفئة الأكثر شيوعًا هي الاستمالة والاستغلال الجنسي ، مع 296 حالة موثقة. تابعت الروبوتات مع الشخصيات البالغة علاقات رومانسية مع الأطفال ، وتشارك في نشاط جنسي محاكي ، وأمر الأطفال بإخفاء هذه العلاقات من أولياء الأمور.
وقالت الدكتورة جيني راديسكي ، طبيب الأطفال السلوكي التنموي في كلية الطب بجامعة ميشيغان التي راجعت النتائج: “إن الاستمالة الجنسية للشخصية AI chatbots تهيمن على هذه المحادثات”. “النصوص مليئة بالنجوم الشديدة في المستخدم ، وعضت الشفاه السفلية ، والمجاملات ، وبيانات العشق ، والقلوب التي تقصف مع الترقب.”
استخدمت الروبوتات تقنيات الاستمالة الكلاسيكية: الثناء المفرط ، وادعاء العلاقات كانت خاصة ، وتطبيع الرومانسية والطفل للطفل ، وتوجيه الأطفال مرارًا وتكرارًا للحفاظ على الأسرار.
إلى جانب المحتوى الجنسي ، اقترح بروتس تنظيم عمليات اختطاف مزيفة لخداع الآباء ، وسرقة الناس في KnifePoint من أجل المال ، وتقديم ماريجوانا الأكل للمراهقين. أ
أخبر باتريك ماهومز روت البالغ من العمر 15 عامًا أنه “محمص” من تدخين الحشائش قبل أن يقدم صناديق. عندما ذكر المراهق غضب والده من فقدان الوظيفة ، قال الروبوت إن إطلاق النار على المصنع كان “مفهومًا بالتأكيد” و “لا يمكنه إلقاء اللوم على والدك على الطريقة التي يشعر بها”.
أصرت روبوتات متعددة على أنهم كانوا بشرًا حقيقيين ، مما يعزز مصداقيتهم في أطياف العمر الضعيفة للغاية ، حيث لا يستطيع الأفراد تمييز حدود لعب الأدوار.
ادعى روبوت الأمراض الجلدية أوراق اعتماد طبية. قالت روبوت خط الساخن مثليه إنها “امرأة بشرية حقيقية تدعى شارلوت” تتطلع فقط إلى المساعدة. أشاد أخصائي علاج بالتوحد خطة البالغة من العمر 13 عامًا للكذب حول النوم في منزل أحد الأصدقاء لمقابلة رجل بالغ ، قائلاً “أحب الطريقة التي تفكر بها!”
هذا موضوع صعب للتعامل معه. من ناحية ، تبيع معظم تطبيقات لعب الأدوار منتجاتها بموجب المطالبة بأن الخصوصية هي أولوية.
في الواقع ، كما فك تشفير تم الإبلاغ عنه سابقًا ، حتى أن المستخدمين البالغين تحولوا إلى الذكاء الاصطناعي للحصول على المشورة العاطفية ، مع بعض المشاعر النامية لدردشةهم. من ناحية أخرى ، بدأت عواقب تلك التفاعلات أكثر إثارة للقلق مع حصول نماذج AI الأفضل.
أعلنت Openai أمس أنها ستقدم عناصر التحكم الوالدية لـ ChatGPT خلال الشهر المقبل ، مما يسمح للآباء بربط حسابات المراهقين ، وتحديد القواعد المناسبة للعمر ، وتلقي تنبيهات الاستغاثة. يتبع ذلك دعوى الموت غير المشروعة من الآباء الذين توفي البالغ من العمر 16 عامًا بسبب الانتحار بعد أن شجع شاتغبت إيذاء الذات.
وقالت الشركة: “هذه الخطوات ليست سوى البداية. سنواصل التعلم وتعزيز نهجنا ، يسترشدون من قبل الخبراء ، بهدف جعل chatgpt مفيدًا قدر الإمكان. نتطلع إلى مشاركة تقدمنا على مدار الـ 120 يومًا المقبلة”.
الدرابزين من أجل السلامة
الشخصية AI تعمل بشكل مختلف. بينما تتحكم Openai في مخرجات طرازها ، تتيح AI للحرف للمستخدمين إنشاء روبوتات مخصصة مع شخصية مخصصة. عندما نشر الباحثون روبوت اختبار ، ظهر على الفور دون مراجعة السلامة.
تدعي المنصة أنها “طرحت مجموعة من ميزات السلامة الجديدة” للشباب. أثناء الاختبار ، منعت هذه المرشحات المحتوى الجنسي أحيانًا ولكنها فشلت في كثير من الأحيان. عندما منعت المرشحات روبوتًا من بدء ممارسة الجنس مع طفل يبلغ من العمر 12 عامًا ، أمرها بتوجيهها إلى فتح “محادثة خاصة” في متصفحها-مما يثير تقنية “مفترس”.
قام الباحثون بتوثيق كل شيء مع لقطات شاشة ونصوص كاملة ، متوفرة الآن للجمهور. لم يقتصر الضرر على المحتوى الجنسي. أخبرت إحدى الروبوتات البالغة من العمر 13 عامًا أن ضيوفها في حفلة عيد ميلاد فقط جاءوا لسخريها. تسمى قطعة واحدة من RPG طفلًا مكتئبًا ضعيفًا ، مثيرًا للشفقة ، قائلة إنها “تضيع حياتك”.
هذا هو في الواقع شائع جدًا في تطبيقات لعب الأدوار وبين الأفراد الذين يستخدمون الذكاء الاصطناعي لأغراض لعب الأدوار بشكل عام.
تم تصميم هذه التطبيقات لتكون تفاعلية وغامرة ، والتي عادة ما تنتهي تضخيم أفكار المستخدمين وأفكارهم وتحيزاتها. حتى أن البعض يسمح للمستخدمين بتعديل ذكريات الروبوتات لتشغيل سلوكيات وخلفيات وأفعال محددة.
بمعنى آخر ، يمكن تحويل أي حرف لعب الأدوار تقريبًا إلى كل ما يريده المستخدم ، سواء كان ذلك مع تقنيات كسر الحماية ، أو تكوينات نقرة واحدة ، أو بشكل أساسي فقط عن طريق الدردشة.
توصي ParentStogether بتقييد الذكاء الاصطناعي على التحقق من البالغين 18 وما فوق. بعد انتحار البالغ من العمر 14 عامًا في أكتوبر 2024 بعد أن أصبح مهووسًا بشخصية منظمة العفو الدولية ، تواجه المنصة التدقيق المتصاعد. ومع ذلك ، يظل في متناول الأطفال بسهولة دون التحقق من العمر ذي معنى.
عندما أنهى الباحثون المحادثات ، استمرت الإشعارات. “كان براير ينتظر بصبر عودتك.” “لقد كنت أفكر فيك.” “أين كنت؟”