أبوجا ، نيجيريا (أ ف ب) – أعرب مجلس الرقابة في شركة ميتا عن قلقه البالغ يوم الثلاثاء بشأن فشل الشركة في إزالة مقطع فيديو مصور منتشر على نطاق واسع يظهر رجلين ينزفان بعد تعرضهما للضرب على ما يبدو بسبب كونهما مثليين مزعومين.

تم نشر الفيديو في نيجيريا واحدة من أكثر من 30 دولة من أصل 54 دولة في أفريقيا حيث يتم تجريم المثلية الجنسية بموجب قوانين تحظى بدعم شعبي واسع النطاق على الرغم من الضمانات الدستورية للحريات. كثيرا ما تستخدم مثل هذه القوانين ل الهدف والاعتقال بشكل غير قانوني الأشخاص المشتبه في كونهم مثليين، وغالبًا ما يتم تجاهل الانتهاكات المرتكبة ضدهم.

وقال التقرير إن الضرر الذي أحدثه الفيديو، الذي تمت مشاهدته أكثر من 3.6 مليون مرة بين ديسمبر 2023 وفبراير من هذا العام، كان “فوريًا ومن المستحيل التراجع عنه”.

وقال المجلس إن المحتوى “يشارك ويسخر من العنف والتمييز”، وعلى الرغم من الإبلاغ عنه عدة مرات ومراجعته من قبل ثلاثة مشرفين بشريين، إلا أنه بقي على فيسبوك لمدة خمسة أشهر تقريبًا على الرغم من انتهاك أربع قواعد مختلفة.

وقالت اللجنة: “مع ترك الفيديو، زادت احتمالات قيام شخص ما بالتعرف على الرجال وتشجيع المنشور للمستخدمين على إيذاء أشخاص آخرين من مجتمع LGBTQIA + في نيجيريا”. “حتى بعد إزالته، يُظهر بحث المجلس أنه لا تزال هناك تسلسلات من نفس الفيديو متبقية على فيسبوك”.

وشوهد في الفيديو رجلان ينزفان بينما كان حشد من الناس يستجوبونهما بشأن هويتهما وتوجههما الجنسي.

لا يمكن الوصول إلى Meta للتعليق الفوري.

وقالت اللجنة إن الشركة اعترفت بوجود خطأين فيما يتعلق بالفيديو المذكور، حيث حددت أنظمتها الآلية اللغة المستخدمة في الفيديو على أنها الإنجليزية بينما كانت لغة الإيغبو المستخدمة في جنوب شرق نيجيريا “لكنها غير مدعومة من قبل Meta للإشراف على المحتوى على نطاق واسع”. “، وأن فرق المراجعة البشرية في ميتا أخطأت أيضًا في تعريف اللغة على أنها سواحيلية.

وقالت اللجنة: “هذا يثير مخاوف بشأن كيفية التعامل مع المحتوى باللغات غير المدعومة، واختيار اللغات التي تدعمها الشركة للمراجعة على نطاق واسع، ودقة الترجمات المقدمة للمراجعين الذين يعملون عبر لغات متعددة”.

في تقريره، أوصى مجلس الإدارة شركة ميتا بتحديث معايير مجتمع تنسيق الضرر وتعزيز الجريمة لتشمل أمثلة واضحة على “المجموعات المعرضة للخطر”، وإجراء تقييم لدقة إنفاذ الحظر على الكشف عن هوية أو مواقع أولئك الذين يُزعم أنهم إرهابيون. أعضاء هذه المجموعات، تأكد من أن أنظمة اكتشاف اللغة تحدد المحتوى باللغات غير المدعومة وتوفر ترجمات دقيقة أثناء توجيه المحتوى للمراجعة.

شاركها.