في وادي السيليكون، حيث تتوالى الرهانات التقنية الجريئة، يبدو القليل منها أكثر جرأة من محاولة كسر هيمنة شركة نفيديا (Nvidia) من خلال تحدي برنامج CUDA الخاص بها، وهو نظام برمجي أصبح بهدوء نظام التشغيل الخاص بطفرة الذكاء الاصطناعي. هذا ما تسعى إليه شركة Modular الناشئة، التي أسسها خبراء برمجيات من شركتي آبل (Apple) وجوجل (Google).
يُعرف المؤسسان المشاركان، كريس لاتنر وتيم ديفيس، بعقود من الخبرة في بناء البنية التحتية البرمجية التي تدعم الصناعة التقنية الحديثة. اشتهر لاتنر بإنشاء لغة البرمجة Swift الخاصة بشركة آبل، كما قام بتطوير البرامج التي تدعم رقائق الذكاء الاصطناعي TPU من جوجل، بالتعاون مع تيم ديفيس، المؤسس المشارك لشركة Modular. والآن، يهدفان إلى توجيه خبرتهما نحو CUDA نفسه. هذه المحاولة تعتبر مخاطرة كبيرة، ولكنها مشروع طموح يمكن أن يغير صناعة الذكاء الاصطناعي.
تحدي CUDA: المنافسة مجزأة
بدأ CUDA قبل ما يقرب من 20 عامًا كوسيلة لجعل رقائق الرسومات قابلة للبرمجة. وقد تطور اليوم إلى نظام بيئي برمجي متعدد الطبقات – لغة ومكتبات ومترجمات وأنظمة استدلال – يعتمد عليه معظم شركات الذكاء الاصطناعي. هذا النجاح له ثمن: معظم الصناعة مُحسَّنة الآن حول جهاز مورد واحد. يربط CUDA أحمال عمل الذكاء الاصطناعي بوحدات معالجة الرسومات Nvidia. هذا أمر رائع بالنسبة لشركة Nvidia، ولكنه يحد بشدة من قدرات الآخرين.
على السطح، يبدو أن هناك الكثير من المنافسة: تبيع AMD وحدات معالجة رسومات، ولدى جوجل وحدات TPU، وأنشأت أمازون رقائق Trainium للذكاء الاصطناعي، وهناك عدد من الشركات الناشئة التي تبني أجهزة مماثلة. ومع ذلك، فإن كل شريحة تأتي مع مجموعة برامج خاصة بها مُحسَّنة لهذا المكون فقط. وهذا يعني إعادة اختراع العجلة باستمرار. في معظم الأحيان، من الأسهل الالتزام بـ CUDA – ووحدات معالجة الرسومات Nvidia.
ومع ذلك، فإن مطوري الذكاء الاصطناعي يتوقون إلى قابلية النقل: القدرة على استخدام أي مجموعة من وحدات معالجة الرسومات من عدة مزودين دون الحاجة إلى التعامل مع مجموعات برامج مختلفة. هذا هو جوهر التحدي الذي تواجهه Modular.
Modular: فرصة في ظل التحديات
أدرك لاتنر وديفيس أن هذا التناقض يمثل فرصة كبيرة. “يرى الكثيرون أن هذا جنون”، كما قال كيلان جيبس، الرئيس التنفيذي للشركة الناشئة Inworld AI، وهو مدير منتج سابق في Google DeepMind. “ولكن كريس لديه ميزة: إنه ذكي بما يكفي لمعرفة كيفية القيام بذلك، ومجنون بما يكفي لكي يشرع في ذلك.”
استلهم لاتنر وديفيس هذا الإدراك لبدء Modular في عام 2022، العام الذي أحدث فيه ChatGPT ثورة عالمية. وقد جمعت Modular منذ ذلك الحين 380 مليون دولار من مستثمرين، بما في ذلك Greylock و General Catalyst و GV، الذراع الاستثماري لشركة Google. وقد بلغت قيمة الشركة الناشئة 1.6 مليار دولار في أحدث جولة تمويل في سبتمبر. Modular ليست الجهة الوحيدة التي تسعى إلى كسر احتكار CUDA. هناك مشاريع مفتوحة المصدر مثل ZLUDA، والتي تم تمويلها من قبل AMD، وأيضًا شركة Spectral Compute الناشئة، التي جمعت 6 ملايين دولار.
استخدم لاتنر جزءًا من هذا التمويل لتوظيف مبرمجين موهوبين من Google و Apple وشركات تقنية أخرى. أمضوا ثلاث سنوات في العمل في الخفاء لتطوير اللبنات الأساسية لنظام برمجيات جديد للذكاء الاصطناعي.
نظام البرمجيات الجديد للذكاء الاصطناعي
يبدأ الأساس بلغة برمجة جديدة تمامًا، تسمى Mojo، والتي توفر تحكمًا عميقًا في جعل رقائق الذكاء الاصطناعي تعمل بأكبر قدر ممكن من الكفاءة. صُممت Mojo للعمل بشكل مشابه للغة Python، وهي لغة برمجة شائعة وسهلة الاستخدام. ولكن Mojo لديها أيضًا السرعة والقوة التي تتمتع بها اللغات الأخرى الأكثر تعقيدًا، مثل C++، والتي تعتبر ضرورية لتطوير الذكاء الاصطناعي. تعمل Mojo أيضًا بشكل جيد مع PyTorch، وهو إطار عمل مفتوح المصدر يستخدم غالبًا في بناء نماذج وتطبيقات الذكاء الاصطناعي.
MAX هو الطبقة الرئيسية التالية في نظام Modular البرمجي الجديد. إنه يدعم استدلال الذكاء الاصطناعي، أي كيفية تشغيل النماذج. يعمل هذا الجزء من النظام مع وحدات معالجة الرسومات Nvidia و AMD ووحدات معالجة الرسومات Apple. تأمل Modular في إضافة المزيد من رقائق الذكاء الاصطناعي في المستقبل. وفوق ذلك توجد طبقة أخرى تسمى Mammoth، والتي تساعد مطوري الذكاء الاصطناعي على إدارة مجموعات وحدات معالجة الرسومات.
في أواخر سبتمبر، أعلنت Modular أنها حققت أفضل أداء على وحدات معالجة الرسومات الجديدة Blackwell B200 من Nvidia ووحدات معالجة الرسومات MI355X الأحدث من AMD – والأهم من ذلك، على نفس نظام البرمجيات. قال لاتنر إن Modular تمكن من جعل هذه وحدات معالجة الرسومات AMD تعمل بشكل أفضل بحوالي 50٪ مقارنة بأدائها عند تشغيلها على برامج AMD الخاصة بها.
والأهم من ذلك، أن القدرة على تشغيل وحدات معالجة رسومات مختلفة على نفس نظام البرمجيات تفتح الفرصة المثيرة لمقارنة عروض Nvidia مع رقائق الذكاء الاصطناعي المنافسة على قدم المساواة.
اختبار العملاء والآفاق المستقبلية
أجرى جيبس، الرئيس التنفيذي لشركة Inworld AI، اختبارًا عمليًا لبرامج Modular. Inworld تبني تقنية ذكاء اصطناعي محادثي عالية السرعة في الوقت الفعلي تدعم عروضًا من شركات كبيرة، بما في ذلك Disney و NBCUniversal و Niantic Labs. في وقت سابق من هذا العام، عندما صممت الشركة الناشئة نموذجًا جديدًا لتحويل النص إلى كلام وحصلت على وصول مبكر إلى وحدات معالجة الرسومات Nvidia B200، قدمت Modular تحديًا: قلل التكاليف بنسبة 60٪ وقلل زمن الاستجابة بنسبة 40٪ وسوف نتعاون معك.
“في غضون أربعة أسابيع تقريبًا، تمكنا من تحقيق هذا الأداء المذهل”، قال جيبس، الذي وقع صفقة شراكة مع Modular بعد ذلك بوقت قصير. “لقد راهنت بمالي”. في حين أن Inworld انجذبت في الغالب إلى مكاسب الأداء التي حققتها Modular على وحدات معالجة الرسومات Nvidia الأحدث، فإن جيبس يقدر مرونة استخدام رقائق الذكاء الاصطناعي المختلفة بسهولة أكبر في المستقبل، إذا لزم الأمر.
يبدو أن رقائق TPU من جوجل تشهد لحظة ازدهار. أطلقت شركة الإنترنت العملاقة مؤخرًا نموذج الذكاء الاصطناعي Gemini 3، الذي لاقى استحسانًا كبيرًا. تم تدريب هذا النموذج وتشغيله باستخدام وحدات TPU، وقد وقعت بعض شركات الذكاء الاصطناعي الأخرى صفقات لاستخدام هذه الرقائق بدلاً من، أو جنبًا إلى جنب مع، وحدات معالجة الرسومات Nvidia.
هذا وضع Nvidia في موقف دفاعي. مشروع مثل Modular، مع وعده بقابلية النقل عبر أجهزة الذكاء الاصطناعي المختلفة، يزيد من هذا الضغط. من المتوقع أن تشهد الأشهر القادمة تطورات حاسمة في هذا المجال، مع التركيز على تبني الشركات الناشئة والعملاقة لتقنيات Modular، ورد فعل Nvidia على هذا التحدي المتزايد. ستكون مراقبة أداء Modular على مجموعة متنوعة من الأجهزة، وقدرتها على جذب المزيد من المطورين، هي المفتاح لفهم مستقبل هذا المشهد التنافسي.
