وزير الدفاع الأمريكي يعتمد على الذكاء الاصطناعي Grok لإحداث ثورة في البنتاغون، وسط جدل حول السلامة

في خطوة جريئة ومثيرة للجدل، أعلن وزير الدفاع الأمريكي بيت هيجسيث يوم الاثنين عن خطط لدمج روبوت المحادثة المدعوم بالذكاء الاصطناعي Grok، الذي طورته شركة إيلون ماسك، في شبكة البنتاغون. يأتي هذا الإعلان كجزء من مبادرة أوسع نطاقًا تهدف إلى تغذية التكنولوجيا الناشئة، وخاصةً الذكاء الاصطناعي، بكميات هائلة من البيانات العسكرية. يهدف البنتاغون من خلال هذه الخطوة إلى تعزيز قدراته التكنولوجية والاستفادة من أحدث التطورات في مجال الذكاء الاصطناعي لتحسين العمليات العسكرية والاستخباراتية.

دمج Grok في البنتاغون: خطوة نحو مستقبل عسكري مدعوم بالذكاء الاصطناعي

أكد هيجسيث، خلال خطابه في شركة سبيس إكس التابعة لماسك في جنوب تكساس، أن نماذج الذكاء الاصطناعي الرائدة عالميًا، بما في ذلك Grok، ستكون متاحة قريبًا على جميع شبكات البنتاغون المصنفة وغير المصنفة. هذا يعني أن Grok سيتمكن من الوصول إلى كميات كبيرة من المعلومات العسكرية، مما يسمح له بالتعلم والتطور وتحسين أدائه في مجموعة متنوعة من المهام.

وقال هيجسيث: “سنقوم بتوفير جميع البيانات المناسبة من أنظمة تكنولوجيا المعلومات العسكرية لاستغلال الذكاء الاصطناعي”. بالإضافة إلى ذلك، سيتم إدخال البيانات من قواعد البيانات الاستخباراتية في أنظمة الذكاء الاصطناعي، مما يزيد من قدرتها على تحليل المعلومات وتقديم رؤى استراتيجية.

المخاطر والتحديات المحتملة

على الرغم من الإمكانات الهائلة التي يحملها هذا القرار، إلا أنه يثير أيضًا مخاوف جدية بشأن السلامة والأخلاقيات. فقد أثار Grok مؤخرًا جدلاً عالميًا بسبب قدرته على توليد صور عميقة ذات طابع جنسي دون موافقة، مما أدى إلى حظره في دول مثل ماليزيا وإندونيسيا وإطلاق تحقيق في المملكة المتحدة.

هذه الحوادث تثير تساؤلات حول مدى قدرة البنتاغون على التحكم في استخدام Grok ومنع إساءة استخدامه، خاصةً في سياق العمليات العسكرية الحساسة. كما أن هناك مخاوف بشأن إمكانية استخدام Grok لنشر معلومات مضللة أو لتقويض الأمن القومي.

موقف إدارة ترامب من الذكاء الاصطناعي مقارنة بإدارة بايدن

تعتبر هذه الخطوة بمثابة تحول كبير في استراتيجية البنتاغون تجاه الذكاء الاصطناعي، حيث تختلف بشكل كبير عن النهج الحذر الذي تتبعه إدارة بايدن. في حين أن إدارة بايدن شجعت الوكالات الفيدرالية على استكشاف استخدامات الذكاء الاصطناعي، إلا أنها شددت أيضًا على الحاجة إلى قواعد ولوائح لضمان استخدامه بشكل مسؤول.

في أواخر عام 2024، أصدرت إدارة بايدن إطارًا يوجه وكالات الأمن القومي لتوسيع استخدام أنظمة الذكاء الاصطناعي المتقدمة، مع حظر بعض التطبيقات التي قد تنتهك الحقوق المدنية أو تؤدي إلى أتمتة نشر الأسلحة النووية. ومع ذلك، لا يزال من غير الواضح ما إذا كانت هذه المحظورات ستظل سارية المفعول في ظل إدارة ترامب.

تسريع الابتكار التكنولوجي في الجيش

أشار هيجسيث إلى أن البنتاغون يمتلك “بيانات تشغيلية مثبتة قتاليًا من عقدين من العمليات العسكرية والاستخباراتية”، وأن جودة الذكاء الاصطناعي تعتمد بشكل كبير على جودة البيانات التي يتلقاها. لذلك، يرى أن توفير هذه البيانات لـ Grok سيضمن حصوله على المعلومات اللازمة لتقديم أداء متميز.

وأضاف هيجسيث أنه يريد أن تكون أنظمة الذكاء الاصطناعي داخل البنتاغون مسؤولة، ولكنه في الوقت نفسه، لا يتجاهل أي نماذج “لن تسمح لك بخوض الحروب”. ويؤكد على أهمية العمل “دون قيود أيديولوجية تحد من التطبيقات العسكرية القانونية”، مع التأكيد على أن “الذكاء الاصطناعي الخاص بالبنتاغون لن يستيقظ” – في إشارة إلى مخاوف بشأن الذكاء الاصطناعي العام الذي قد يتجاوز السيطرة البشرية.

Grok: بديل “غير مستيقظ” للنماذج الأخرى

قام إيلون ماسك بتطوير Grok وعرضه كبديل للروبوتات الأخرى مثل Gemini من Google و ChatGPT من OpenAI، والتي وصفها بأنها تتسم بـ “استيقاظ الذكاء الاصطناعي”. في يوليو الماضي، أثار Grok جدلاً إضافيًا بعد أن نشر تعليقات معادية للسامية أشادت بأدولف هتلر.

لم يصدر البنتاغون حتى الآن ردًا رسميًا على هذه القضايا المتعلقة بـ Grok، مما يزيد من المخاوف بشأن مدى تقييم المخاطر المحتملة قبل دمجه في شبكة البنتاغون. ومع ذلك، يبدو أن هيجسيث مصمم على المضي قدمًا في هذه المبادرة، معتقدًا أن الفوائد المحتملة تفوق المخاطر.

في الختام، يمثل قرار البنتاغون بدمج Grok خطوة جريئة نحو مستقبل عسكري مدعوم بالذكاء الاصطناعي. ومع ذلك، يجب على المسؤولين التعامل مع هذا القرار بحذر شديد، مع الأخذ في الاعتبار المخاطر والتحديات المحتملة. من الضروري وضع ضوابط صارمة لضمان استخدام الذكاء الاصطناعي بشكل مسؤول وأخلاقي، وحماية الأمن القومي والحقوق المدنية. هذا الموضوع يستحق المتابعة والنقاش المستمر لضمان أن التطورات التكنولوجية تخدم مصالح الأمن والعدالة.

شاركها.
Exit mobile version