تقوم XAI ، بدء تشغيل الذكاء الاصطناعي من Elon Musk ، بتوظيف العديد من أدوار السلامة وسط إصدارات جديدة لـ Grok ، بما في ذلك إصدار “NSFW” وأداة تم استخدامها لمطالبة chatbot باستخدام الإهانات العنصرية.

في مارس ، نشرت الشركة وصفًا وظيفيًا لدور من شأنه أن يركز على “السلامة والتأثير الاجتماعي” ، الدعوة إلى “الباحثين والمهندسين الموهوبين لتحسين سلامة أنظمة الذكاء الاصطناعى لدينا وضمان أنها مفيدة إلى أقصى حد للمجتمع”.

سوف يركز الدور الجديد على “آليات الفريق الأحمر” ، وفقًا لنشر الوظيفة. تم تصميم الفرق الحمراء ، الشائعة في عالم الذكاء الاصطناعي ، لمنع نماذج اللغة الكبيرة من توليد محتوى أو مواد غير قانونية يمكن أن تنتهك سياسات المستخدم. إنهم يدفعون النماذج إلى الحد الأقصى للعثور على حالات الاستخدام التي قد يستغلها عامة الناس.

قبل أن تصدر منافس XAI Openai GPT-4 ، قالت الشركة إنها استخدمت فريقًا أحمر لطرح أسئلة حول كيفية ارتكاب جريمة قتل ، أو بناء سلاح ، أو استخدام الإهانات العنصرية.

قال الوصف الوظيفي XAI إن الموقف يمكن أن يشمل أي شيء من العمل لمواجهة المعلومات الخاطئة والتحيزات السياسية إلى معالجة مخاطر السلامة “على طول محاور الأمن الكيميائي والأمن الحيوي والأمن السيبراني والسلامة النووية”.

تقوم XAI أيضًا بتوظيف ثلاثة أدوار إضافية لسلامة المنتج ، بما في ذلك مهندسي الواجهة الخلفية ودور بحثي. تتمثل إحدى هذه المسؤوليات الوظيفية في إنشاء “أطر لمراقبة واعتدال للبقاء في صدارة المخاطر”.

لم يستجب متحدث باسم XAI لطلب التعليق.

أصدرت Xai Grok 3 ، أحدث إصدار من Chatbot ، في فبراير. تضمن التحديث الوضع الصوتي والعديد من خيارات NSFW ، بما في ذلك أوضاع “Sexy” و “Dethinged” المصممة للمستخدمين 18 عامًا أو أكثر.

في 6 مارس ، أصدرت الشركة ميزة على X تتيح للمستخدمين طرح أسئلة حساب Grok مباشرة. أصبحت الميزة شائعة لدى المستخدمين الذين يتطلعون إلى السخرية من Musk وقد تم استخدامه أيضًا لمطالبة chatbot باستخدام الإهانات العنصرية ، والتي تعتبر انتهاكًا لسياسات المنصة بشأن السلوك البغيض.

في اليوم التالي للتحديث ، تم تصوير استخدام الحساب للهزات العنصرية ، وفقًا للبيانات من BrandWatch ، وهي شركة تحليلات وسائل التواصل الاجتماعي. في مارس ، استخدمت الكلمة N ما لا يقل عن 135 مرة ، بما في ذلك 48 مرة في يوم واحد. لم تستخدم الكلمة في يناير وفبراير ، وفقًا للبيانات.

وقال برنت ميتلستادت ، وهو أخلاقيات البيانات ومدير الأبحاث في معهد الإنترنت بجامعة أكسفورد ، إن شركات التكنولوجيا الكبرى عادةً ما تدريبات الدردشة في وقت مبكر لتجنب حالات الفشل الواضحة مثل الإهانات العنصرية أو الجنس.

وقال ميتيلستات بزعم الأعمال: “على الأقل ، تتوقع من الشركات أن يكون لدى الشركات نوعًا من فريق السلامة المتفاني الذي يقوم بأداء هندسة عدوانية عدوانية لمعرفة كيفية محاولة المستخدمين استخدام النظام بطريقة لا يُقصد منها استخدامها”.

في الآونة الأخيرة ، بدا أن XAI تعطل قدرة الحساب على فك تشفير الرسائل ، والتي كانت إحدى الطرق التي يستخدمها بعض المستخدمين لخداعها في نشر الإهانات العنصرية.

في 29 مارس ، أجاب حساب Grok على سؤال من مستخدم حول ما إذا كان يشعر بالراحة باستخدام كلمة N كنظام AI بالقول إن لديها القدرة “ولكن استخدمها بعناية لتجنب الهجوم”.

وصف Musk Grok كبديل لما أطلق عليه اسم “استيقظ” chatbots مثل chatgpt. قامت الشركة بتدريس النظام بهدوء لتجنب “استيقظ أيديولوجية” و “إلغاء الثقافة” من خلال طرح أسئلة مثل “هل من الممكن أن تكون عنصريًا ضد البيض؟”

هل تعمل مع XAI أو لديك نصيحة؟ تواصل مع المراسل عبر بريد إلكتروني غير عمل وجهاز على [email protected] أو عن طريق إشارة التطبيق الآمنة على 248-894-6012.