البنتاغون يعزز قدراته بالذكاء الاصطناعي: شراكات مع عمالقة التكنولوجيا لمستقبل عسكري مبتكر
في خطوة استراتيجية هامة، كشف البنتاغون يوم الجمعة عن أبرمه لاتفاقيات مع سبع من كبرى شركات التكنولوجيا في العالم، بهدف دمج تقنيات الذكاء الاصطناعي في شبكاته الحاسوبية السرية. تأتي هذه الشراكات لتمكين الجيش الأمريكي من الاستفادة من قدرات الذكاء الاصطناعي المتقدمة، وتعزيز قدرته على خوض الحروب في بيئات تشغيلية معقدة ومتغيرة باستمرار.
شراكات استراتيجية لتعزيز صنع القرار
تشمل قائمة الشركات المتعاقدة مع البنتاغون أسماء لامعة في عالم التكنولوجيا، مثل جوجل، مايكروسوفت، أمازون ويب سيرفيسز، Nvidia، OpenAI، Reflection، و SpaceX. وتهدف هذه الاتفاقيات إلى “تعزيز عملية صنع القرار في مجال المقاتلين في البيئات التشغيلية المعقدة”، مما يعني تسريع وتحسين نوعية القرارات التي يتخذها الجنود في ميدان المعركة.
من بين أبرز الغائبين عن هذه القائمة شركة “أنثروبيك” (Anthropic) للذكاء الاصطناعي، وذلك بعد خلاف علني ومعركة قانونية مع إدارة ترامب بشأن أخلاقيات وسلامة استخدام الذكاء الاصطناعي في سياقات عسكرية.
تسريع وتيرة تبني الذكاء الاصطناعي في المجال العسكري
شهدت السنوات الأخيرة تسريعًا ملحوظًا في اعتماد وزارة الدفاع الأمريكية على تقنيات الذكاء الاصطناعي. فبحسب تقرير صدر في مارس من مركز برينان للعدالة، يمكن لهذه التكنولوجيا أن تقلل بشكل كبير من الوقت اللازم لتحديد الأهداف وضربها في ساحة المعركة، بالإضافة إلى المساعدة في تنظيم عمليات صيانة الأسلحة وخطوط الإمداد.
ومع ذلك، يثير استخدام
الذكاء الاصطناعي في العمليات العسكرية
مخاوف جدية. فهناك قلق متزايد من إمكانية انتهاك خصوصية المواطنين الأمريكيين، أو السماح للآلات باتخاذ قرارات قاتلة بشأن الأهداف في ساحة المعركة. وقد أكدت إحدى الشركات المتعاقدة أن اتفاقها يتضمن شرط الإشراف البشري في مواقف معينة، للتخفيف من هذه المخاوف.
مخاوف أخلاقية ومساهمات في الصراعات
نشأت هذه المخاوف بشكل خاص خلال الحرب التي شنتها إسرائيل ضد المسلحين في غزة ولبنان، حيث ساهمت شركات التكنولوجيا الأمريكية العملاقة بشكل غير مباشر في تمكين إسرائيل من تتبع الأهداف. إلا أن ارتفاع أعداد الضحايا المدنيين أثار تساؤلات حول ما إذا كانت هذه الأدوات قد ساهمت في زيادة الخسائر في صفوف الأبرياء.
أسئلة مفتوحة حول مستقبل الذكاء الاصطناعي العسكري
تؤكد هيلين تونر، المديرة التنفيذية المؤقتة لمركز الأمن والتكنولوجيا الناشئة بجامعة جورج تاون، أن العقود الأخيرة للبنتاغون تأتي في سياق قلق متزايد بشأن الاعتماد المفرط على التكنولوجيا في ساحة المعركة.
تضيف تونر، التي كانت عضوًا سابقًا في مجلس إدارة OpenAI، أن “الكثير من الحروب الحديثة تعتمد على أشخاص يجلسون في مراكز القيادة خلف شاشات المراقبة، ويتخذون قرارات معقدة في مواقف مربكة ومتغيرة بسرعة”. وتشير إلى أن “أنظمة الذكاء الاصطناعي يمكن أن تكون مفيدة في تلخيص المعلومات أو تحليل بيانات المراقبة ومحاولة تحديد الأهداف المحتملة”.
ولكن، لا تزال الأسئلة حول المستويات المناسبة للمشاركة البشرية، والمخاطر المرتبطة بها، والتدريب اللازم للمشغلين، قيد البحث والنقاش. تسأل تونر: “كيف يمكننا طرح هذه الأدوات بسرعة لتكون فعالة وتوفر ميزة استراتيجية، مع إدراكنا للحاجة إلى تدريب المشغلين والتأكد من أنهم يعرفون كيفية استخدامها وعدم الثقة بها بشكل مفرط؟”
موقف “أنثروبيك” والحصول على ضمانات
لقد أثارت شركة “أنثروبيك” مثل هذه المخاوف في وقت سابق. فقد صرحت الشركة بأنها ترغب في الحصول على ضمانات في عقودها بأن الجيش لن يستخدم تقنيتها في تطوير أسلحة مستقلة بالكامل، أو في مراقبة المواطنين الأمريكيين. من جهته، أشار وزير الدفاع بيت هيجسيث إلى أن الشركة يجب أن تسمح بأي استخدامات يعتبرها البنتاغون قانونية.
وفي سياق متصل، وبعد محاولة الرئيس الجمهوري دونالد ترامب وقف جميع الوكالات الفيدرالية من استخدام برنامج الدردشة الآلي الخاص بالشركة، سعى كلود وهيجسيث إلى تصنيف الشركة بأنها تشكل “مخاطر سلسلة توريد”، وهو تصنيف يهدف إلى الحماية من تخريب أنظمة الأمن القومي من قبل خصوم أجانب.
OpenAI: شراكة قائمة على التطوير المشترك
في شهر مارس، أعلنت شركة OpenAI عن صفقة مع البنتاغون، والتي تم تفسيرها على أنها بديلاً لـ Anthropic في البيئات السرية، باستخدام تقنيتها ChatGPT. وأكدت OpenAI في بيانها يوم الجمعة أن هذه الصفقة هي نفسها التي تم الإعلان عنها في أوائل مارس.
أعربت الشركة عن اعتقادها بأنه “يجب أن يمتلك الأشخاص الذين يدافعون عن الولايات المتحدة أفضل الأدوات في العالم”.
تفاصيل الاتفاقيات والضمانات
تضمنت اتفاقية إحدى الشركات مع البنتاغون لغة تنص على ضرورة وجود إشراف بشري على أي مهام تعمل فيها أنظمة الذكاء الاصطناعي بشكل مستقل أو شبه مستقل، وفقًا لشخص مطلع على الاتفاقية. كما نصت اللغة أيضًا على ضرورة استخدام أدوات الذكاء الاصطناعي بطرق تتفق مع الحقوق الدستورية والحريات المدنية.
تشبه هذه النقاط إلى حد كبير المخاوف التي أثارتها شركة “أنثروبيك”، على الرغم من أن OpenAI أفادت سابقًا بأنها حصلت على ضمانات مماثلة عندما أبرمت اتفاقها الخاص مع البنتاغون.
منظور البنتاغون: تنوع الشركاء وتقييم المخاطر
صرح إميل مايكل، كبير مسؤولي التكنولوجيا في البنتاغون، لشبكة CNBC بأن الاعتماد على شركة واحدة فقط سيكون أمرًا غير مسؤول، في إشارة واضحة إلى الخلاف مع شركة “أنثروبيك”. وأضاف مايكل: “عندما علمنا أن أحد الشركاء لم يرغب حقًا في العمل معنا بالطريقة التي أردنا العمل بها، خرجنا وتأكدنا من أن لدينا العديد من مقدمي الخدمة المختلفين”.
بالنسبة لبعض الشركات، مثل أمازون ومايكروسوفت، فقد أدى عملهن الطويل مع الجيش في البيئات السرية إلى استمرار هذه الشراكات. أما شركات أخرى، مثل Nvidia و Reflection، فهي جديدة في هذا المجال. تعمل الشركتان على نماذج مفتوحة المصدر للذكاء الاصطناعي، والتي وصفها مايكل بأنها تمثل أولوية لتوفير “بديل أمريكي” للتطور السريع لأنظمة الذكاء الاصطناعي في الصين.
تطبيقات عملية وحماية الأمة
أكد البنتاغون أن الأفراد العسكريين يستخدمون بالفعل قدرات الذكاء الاصطناعي من خلال منصته الرسمية GenAI.mil. وأضاف البنتاغون أن “المقاتلين والمدنيين والمقاولين يستخدمون هذه القدرات عمليًا في الوقت الحالي، مما يقلل العديد من المهام من أشهر إلى أيام”. موضحًا أن قدرات الذكاء الاصطناعي المتنامية للجيش “ستمنح المقاتلين الأدوات التي يحتاجونها للعمل بثقة وحماية الأمة من أي تهديد”.
تشير تونر إلى أنه في العديد من الحالات، يستخدم الجيش الذكاء الاصطناعي بنفس الطريقة التي يستخدمه بها المدنيون: لأداء مهام روتينية قد تستغرق ساعات أو أيامًا لإنجازها. ويمكن استخدامه للتنبؤ بشكل أفضل بموعد الحاجة إلى صيانة طائرة هليكوبتر، أو لتحديد أفضل الطرق لنقل القوات والمعدات بكفاءة. كما يمكنه المساعدة في تحديد ما إذا كانت المركبات في خلاصات مراقبة الطائرات بدون طيار مدنية أم عسكرية.
ومع ذلك، فإنها تحذر من الاعتماد المفرط على هذه التقنيات، مشيرة إلى ظاهرة “التحيز الآلي، حيث يمكن للناس أن يميلوا إلى افتراض أن الآلات تعمل بشكل أفضل مما تفعله في الواقع”.
الخاتمة
تمثل هذه الشراكات الجديدة بين البنتاغون وشركات التكنولوجيا خطوة هامة نحو تسخير قوة الذكاء الاصطناعي لتعزيز القدرات العسكرية الأمريكية. لكنها تثير أيضًا أسئلة حيوية حول التوازن بين الابتكار التكنولوجي والضرورات الأخلاقية، وضمان الاستخدام المسؤول والآمن لهذه التقنيات. إن تحقيق هذا التوازن هو مفتاح ضمان مستقبل آمن ومستقر، مع حماية الحقوق والحريات.
