ميتا توقف العمل مع “مركور” وتجري تحقيقًا بعد خرق بيانات
أوقفت شركة ميتا، عملاق التكنولوجيا، شراكتها مع شركة “مركور” الناشئة في مجال تدريب الذكاء الاصطناعي، وذلك بعد تعرض الأخيرة لخرق أمني كبير. يأتي هذا القرار وسط مخاوف متزايدة بشأن أمن البيانات في صناعة الذكاء الاصطناعي سريعة التطور. وأكد مصدر مطلع على الأمر أن ميتا تجري حاليًا تحقيقًا شاملاً في الحادث.
تُعد “مركور” شركة ناشئة طموحة، استطاعت في وقت قصير أن تحصل على تقييم يصل إلى 10 مليارات دولار في جولة تمويل أخيرة. تعمل الشركة مع كبريات شركات التكنولوجيا، بما في ذلك ميتا، على تدريب نماذج الذكاء الاصطناعي باستخدام آلاف المتعاقدين والخبراء البشريين. وقد كشف تقرير صادر عن “وايرد” قبل أيام عن توقف ميتا عن جميع أعمالها مع “مركور”.
تفاصيل خرق البيانات في “مركور”
أكدت “مركور” في بيان رسمي تعرضها لخرق أمني. أوضحت الشركة أن هذا الاختراق لم يكن استهدافًا مباشرًا لها، بل جزء من هجوم سلسلة توريد أوسع طال آلاف الشركات الأخرى، وتحديدًا عبر مشروع المصدر المفتوح “LiteLLM”. هذا يعني أن الثغرة الأمنية لم تكن بالضرورة في أنظمة “مركور” الداخلية، بل في أحد المكونات البرمجية التي تعتمد عليها.
أكدت “مركور” أنها سارعت فور اكتشاف الحادث باتخاذ الإجراءات اللازمة لاحتوائه ومعالجته. كما أعلنت الشركة عن استعانتها بخبراء متخصصين في التحقيقات الجنائية الرقمية لإجراء تحقيق معمق في ملابسات الحادث. وشددت “مركور” على أن خصوصية وأمن المتعاقدين والعملاء هي أولوية قصوى بالنسبة لها.
تداعيات على صناعة الذكاء الاصطناعي
يُسلط هذا الحادث الضوء على التحديات الأمنية الكبيرة التي تواجه صناعة الذكاء الاصطناعي، خاصة فيما يتعلق بجمع وتدريب كميات هائلة من البيانات. مع تزايد الاعتماد على نماذج الذكاء الاصطناعي في مختلف القطاعات، تصبح حماية البيانات أمرًا بالغ الأهمية. إن طبيعة عمل “مركور” التي تعتمد على المتعاقدين البشريين لتدريب النماذج، تزيد من تعقيد المشهد الأمني.
من جهتها، رفضت ميتا التعليق رسميًا على هذا التطور. ومع ذلك، فإن قرارها بوقف العمل مع “مركور” وإجراء التحقيقات اللازمة يعكس جدية المخاوف بشأن تأثير اختراق البيانات على علاقاتها مع شركائها. قد تتطلب الشركات في المستقبل إجراء فحوصات أمنية أكثر صرامة للموردين والشركاء الذين يتعاملون مع بيانات حساسة.
التحقيق المستمر وتوقعات المستقبل
لا تزال التحقيقات جارية لتحديد النطاق الكامل لخرق البيانات وتحديد الأطراف المسؤولة. من المتوقع أن تلتزم “مركور” بالشفافية وتقديم تحديثات مستمرة حول تطورات التحقيق. قد يؤدي هذا الحادث إلى وضع معايير أمنية أعلى لشركات تدريب الذكاء الاصطناعي، فضلًا عن زيادة التدقيق على مشاريع المصدر المفتوح التي تعتمد عليها هذه الصناعة.
سيتابع المراقبون عن كثب نتائج تحقيق ميتا و”مركور” لتحديد ما إذا كانت ستستأنف الشراكة في المستقبل، وما هي الإجراءات التصحيحية التي سيتم اتخاذها. هذا التطور يذكرنا بأن التقدم في مجال الذكاء الاصطناعي يجب أن يسير جنبًا إلى جنب مع ضمانات قوية لأمن البيانات والخصوصية.

