لم يكن الأمر كذلك التحقق من الحقائق التي ألغتها ميتا من منصاتها أثناء استعدادها لإدارة ترامب الثانية. كما خفف عملاق وسائل التواصل الاجتماعي أيضًا قواعده بشأن خطاب الكراهية والإساءة – متبعًا مرة أخرى خطى Elon Musk's X – خاصة عندما يتعلق الأمر بالتوجه الجنسي والهوية الجنسية بالإضافة إلى حالة الهجرة.

تثير هذه التغييرات قلق المدافعين عن الفئات الضعيفة، الذين يقولون إن قرار Meta بتقليص الإشراف على المحتوى قد يؤدي إلى أضرار حقيقية. قال مارك زوكربيرج، الرئيس التنفيذي لشركة ميتا، يوم الثلاثاء إن الشركة “ستزيل القيود المفروضة على موضوعات مثل الهجرة والجنس التي لا تمس الخطاب السائد”، مشيرًا إلى “الانتخابات الأخيرة” كحافز.

على سبيل المثال، أضافت Meta ما يلي إلى قواعدها — تسمى معايير المجتمع – التي يُطلب من المستخدمين الالتزام بما يلي:

“نحن نسمح بالادعاءات المتعلقة بالمرض العقلي أو الشذوذ عندما تستند إلى الجنس أو التوجه الجنسي، نظرا للخطاب السياسي والديني حول التحول الجنسي والمثلية الجنسية والاستخدام الشائع غير الجاد لكلمات مثل “غريب”. وبعبارة أخرى، أصبح من المسموح به الآن استدعاء الأشخاص المثليين المصابين بأمراض عقلية على Facebook وThreads وInstagram. ولا تزال الإهانات الأخرى وما يسميه ميتا “الصور النمطية الضارة المرتبطة تاريخيا بالترهيب” – مثل الوجه الأسود وإنكار الهولوكوست – محظورة.

قامت الشركة التي يقع مقرها في مينلو بارك بولاية كاليفورنيا أيضًا بإزالة جملة من “الأساس المنطقي للسياسة” الخاصة بها توضح سبب حظرها لبعض السلوكيات التي تحض على الكراهية. وجاء في الجملة المحذوفة الآن أن خطاب الكراهية “يخلق بيئة من الترهيب والإقصاء، وفي بعض الحالات قد يشجع على العنف خارج الإنترنت”.

وقال بن لاينر، المحاضر في كلية داردن للأعمال بجامعة فيرجينيا والذي يدرس الاتجاهات السياسية والتكنولوجية: “إن تغيير السياسة هو تكتيك لكسب رضا الإدارة القادمة مع تقليل تكاليف الأعمال المتعلقة باعتدال المحتوى”. “سيؤدي هذا القرار إلى ضرر حقيقي، ليس فقط في الولايات المتحدة حيث كان هناك ارتفاع طفيف في خطاب الكراهية والمعلومات المضللة على منصات وسائل التواصل الاجتماعي، ولكن أيضًا في الخارج حيث أدت المعلومات المضللة على فيسبوك إلى تسريع الصراع العرقي في البلاد”. أماكن مثل ميانمار“.

ميتا، في الواقع، اعترفت في عام 2018 أنها لم تفعل ما يكفي لمنع استخدام منصتها “للتحريض على العنف خارج الإنترنت” في ميانمار، مما يؤجج الكراهية الطائفية والعنف ضد أقلية الروهينجا المسلمة في البلاد.

أرتورو بيجارقال، وهو مدير هندسي سابق في Meta معروف بخبرته في الحد من التحرش عبر الإنترنت، إنه بينما ذهب معظم الاهتمام إلى إعلان التحقق من صحة الشركة يوم الثلاثاء، فإنه يشعر بقلق أكبر بشأن التغييرات في سياسات المحتوى الضار في Meta.

وذلك لأنه بدلاً من فرض القواعد بشكل استباقي ضد أشياء مثل إيذاء النفس والتنمر والتحرش، ستعتمد Meta الآن على تقارير المستخدم قبل اتخاذ أي إجراء. وقالت الشركة إنها تخطط لتركيز أنظمتها الآلية على “معالجة الانتهاكات غير القانونية وعالية الخطورة، مثل الإرهاب والاستغلال الجنسي للأطفال والمخدرات والاحتيال والاحتيال”.

قال بيجار هذا على الرغم من أن “ميتا تعلم أنه بحلول الوقت الذي يتم فيه تقديم التقرير ومراجعة المحتوى سيكون قد أحدث معظم الضرر”.

“أرتعد عندما أفكر في ما ستعنيه هذه التغييرات بالنسبة لشبابنا، تتخلى ميتا عن مسؤوليتها تجاه السلامة، ولن نتأثر بتأثير هذه التغييرات لأن ميتا ترفض أن تكون شفافة بشأن الأضرار التي يتعرض لها المراهقون، ويذهبون إلى أبعد الحدود وقال “لتخفيف أو وقف التشريعات التي يمكن أن تساعد”.

شاركها.
Exit mobile version