تتهم شركة Anthropic، الرائدة في مجال الذكاء الاصطناعي، ثلاث شركات صينية كبرى – DeepSeek و MiniMax و Moonshot AI – بسرقة تقنياتها الأساسية لتطوير نماذجها الخاصة، مما يثير مخاوف بشأن سباق الذكاء الاصطناعي العالمي. جاءت هذه الاتهامات، التي تم الكشف عنها يوم الاثنين، على خلفية تصاعد حدة المنافسة وتزايد التطورات في هذا المجال الحيوي.
وفقًا لـ Anthropic، فإن الشركات الصينية المذكورة قامت “باستخدام غير مشروع” لنماذج Claude الخاصة بها، والذي يوفر قدرات متقدمة في معالجة وفهم اللغة، وذلك بهدف تحسين وتطوير نماذج الذكاء الاصطناعي الخاصة بهم. هذه الممارسات، التي وصفتها Anthropic بـ “حملات على نطاق صناعي”، تتجاوز شروط الخدمة الخاصة بالشركة وقيود الوصول الإقليمية.
اتهامات Anthropic للشركات الصينية بسرقة تقنيات الذكاء الاصطناعي
أكدت Anthropic أن هذه الحملات لا تقتصر على مجرد انتهاك لشروط الخدمة، بل تمثل تهديدًا أوسع يمتد إلى ما وراء حدود أي شركة أو منطقة معينة. وأشارت الشركة في بيان لها إلى أن “نافذة العمل ضيقة، والتهديد يمتد إلى ما هو أبعد من أي شركة أو منطقة واحدة.” تتطلب معالجة هذا التهديد إجراءات سريعة ومنسقة بين جميع اللاعبين في الصناعة، وصناع السياسات، والمجتمع العالمي للذكاء الاصطناعي.
استخدمت Anthropic ما يقرب من 24,000 حساب مزيف لـ Claude، مما أدى إلى توليد أكثر من 16 مليون تفاعل. هذه الأرقام تكشف عن حجم الاستغلال الذي ادعت الشركة تعرضها له. يذكر أن Claude غير متاح للاستخدام التجاري في الصين، ومع ذلك، وجدت الشركات الصينية المعنية طرقًا للتحايل على هذه القيود.
عملية “التقطير” في سباق الذكاء الاصطناعي
تعتمد هذه الاتهامات على مفهوم يُعرف باسم “التقطير” (Distillation) في مجال الذكاء الاصطناعي. التقطير هو عملية تدريب نموذج ذكاء اصطناعي أقل قوة على مخرجات نموذج أكثر قوة. تُعد هذه التقنية شائعة ومشروعة في الولايات المتحدة، حيث تستخدمها العديد من الشركات لتدريب نماذجها قبل طرحها للجمهور.
ومع ذلك، أفادت تقارير متزايدة أن المنافسين في الصين قد أساءوا استخدام هذه التقنية لـ “سرقة” عمل شركات أمريكية رائدة. وفقًا لـ Anthropic، تسمح هذه الممارسات للمنافسين بالحصول على قدرات قوية من مختبرات أخرى في جزء صغير من الوقت والتكلفة التي تتطلبها التنمية المستقلة.
لم تكن Anthropic الوحيدة التي قدمت مثل هذه الادعاءات. في يناير 2025، أشارت OpenAI إلى أن DeepSeek قد تكون استخدمت مخرجات OpenAI “بشكل غير لائق” لتدريب نماذجها. وفي وقت سابق من هذا الشهر، كشفت Google عن زيادة في محاولات استخراج النماذج أو “هجمات التقطير”.
تفاصيل الاستخدام غير المشروع
قدمت Anthropic تفاصيل ملحوظة حول مدى استخدام DeepSeek و MiniMax و Moonshot AI لأنظمتها. على سبيل المثال، ذكرت Anthropic أن DeepSeek سعت إلى إنشاء “بدائل آمنة للرقابة للاستعلامات الحساسة للسياسة”، في إشارة واضحة إلى جهود لتجاوز القيود المفروضة على المحتوى.
كما كشفت الشركة عن اكتشافها لحملة MiniMax “بينما كانت لا تزال نشطة”، مما أتاح لها نظرة معمقة على ما كان يقوم به المنافس. وأوضحت Anthropic: “عندما أطلقنا نموذجًا جديدًا خلال حملة MiniMax النشطة، قاموا بالتحول في غضون 24 ساعة، وأعادوا توجيه ما يقرب من نصف حركة المرور الخاصة بهم لالتقاط القدرات من أحدث نظام لدينا.”
لم تستجب ممثلو DeepSeek و MiniMax و Moonshot AI على الفور لطلب التعليق.
المخاطر الأمنية والسياسات التجارية
بالإضافة إلى الجوانب المتعلقة بالمنافسة غير العادلة، أشارت Anthropic إلى أن التقطير غير السليم يشكل مخاطر أمنية. فالنماذج الأقل تدريبًا قد تفتقر إلى الضمانات المناسبة، بما في ذلك تلك التي تمنع تطوير أسلحة بيولوجية. أكد الرئيس التنفيذي لشركة Anthropic، داريو أموداي، في وقت سابق على أن نماذج الذكاء الاصطناعي الرائدة تقترب من النقطة التي يمكن أن تساعد فيها في توجيه شخص ما لبناء سلاح بيولوجي.
يدعو أموداي أيضًا إلى فرض ضوابط على صادرات التكنولوجيا الأمريكية، وهو موضوع يثير انقسامًا بين كبار المديرين التنفيذيين في قطاع التكنولوجيا. على النقيض من ذلك، أشار الرئيس التنفيذي لشركة Nvidia، جنسن هوانغ، مرارًا إلى أن تقييد الشركات الأمريكية من بيع الرقائق المتقدمة للصين لن يكبح تقدم الصين في مجال الذكاء الاصطناعي.
ترى Anthropic أن “هجمات التقطير تعزز الأساس المنطقي لضوابط التصدير: فالوصول المقيد إلى الرقائق يحد من كل من التدريب المباشر للنماذج ونطاق التقطير غير المشروع.”
تجدر الإشارة إلى أن Anthropic نفسها واجهت اتهامات باستخدام مواد محمية بحقوق الطبع والنشر لتدريب نماذجها. وفي يناير، كشف تقرير لصحيفة واشنطن بوست عن تفاصيل حول مشروع أسمته الشركة “مشروع بنما”، والذي وصفته الشركة بأنه “جهدنا لمسح جميع الكتب في العالم بشكل مدمر”. كما توصلت الشركة العام الماضي إلى تسوية بقيمة 1.5 مليار دولار في دعوى قضائية جماعية رفعها مؤلفون وناشرون.
التطورات المستقبلية
ردًا على حملات التقطير، طورت Anthropic “أنظمة بصمات سلوكية” وتشارك البيانات مع شركات الذكاء الاصطناعي الأخرى لتحديد التهديدات المحتملة، وتواصل تطوير تدابير مضادة إضافية. من المتوقع أن تتابع الصناعة والجهات التنظيمية عن كثب هذه التطورات، مع الأخذ في الاعتبار أن المعركة من أجل التفوق في الذكاء الاصطناعي تزداد تعقيدًا وتتطلب يقظة مستمرة.

