- يقول مارك زوكربيرج إن نماذج Llama 4 AI من Meta تتدرب على أكبر مجموعة GPU في الصناعة.
- خلال مكالمة أرباح Meta، قال إن المجموعة كانت “أكبر من 100000 H100s”.
- قال Elon Musk إن شركة xAI تستخدم 100000 من وحدات معالجة الرسوميات Nvidia H100 لتدريب برنامج Grok chatbot الخاص بها.
تحدث Elon Musk عن مخزون شركته الناشئة في مجال الذكاء الاصطناعي من رقائق Nvidia المطلوبة. الآن حان دور مارك زوكربيرج للثني.
وقال زوكربيرج إن قدرًا كبيرًا من القوة الحاسوبية يتم تخصيصها لتدريب نماذج الذكاء الاصطناعي Llama 4 القادمة من Meta، أكثر من أي شيء تقدمه المنافسة.
خلال مكالمة أرباح الربع الثالث لشركة Meta يوم الأربعاء، قال الرئيس التنفيذي لشركة Meta إن Llama 4 “دخلت مرحلة تطويرها بشكل جيد” ويتم تدريبها على مجموعة من وحدات معالجة الرسومات أكبر من تلك الخاصة بمنافسيها.
وقال: “نحن ندرب نماذج Llama 4 على مجموعة أكبر من 100.000 H100، أو أكبر من أي شيء رأيته مُعلنًا عما يفعله الآخرون”.
قد يشير هذا الرقم 100000 إلى شركة Musk الناشئة للذكاء الاصطناعي، xAI، التي أطلقت حاسوبها العملاق Colossus في الصيف. وصفه الرئيس التنفيذي لشركة Tesla بأنه “أقوى نظام تدريب للذكاء الاصطناعي في العالم” وقال إن xAI يستخدم 100000 من وحدات معالجة الرسوميات H100 من Nvidia لتدريب برنامج Grok chatbot الخاص به.
إن شريحة H100 من Nvidia، والمعروفة أيضًا باسم Hopper، مطلوبة بشدة من قبل عمالقة التكنولوجيا والشركات الناشئة في مجال الذكاء الاصطناعي من أجل قوة الحوسبة وتدريب نماذج اللغات الكبيرة. وتتراوح تكلفة الشريحة الواحدة ما بين 30 ألف دولار إلى 40 ألف دولار.
لقد أخذ عدد H100s التي جمعتها الشركة في الاعتبار عند توظيف أفضل المواهب في مجال الذكاء الاصطناعي. قال أرافيند سرينيفاس، الرئيس التنفيذي لشركة Perplexity، في مقابلة عبر البودكاست، إن الموضوع طرح عندما حاول سرقة شخص من Meta.
قال سرينيفاس في مارس/آذار: “لقد حاولت تعيين باحث كبير جدًا من ميتا، وأنت تعرف ماذا قالوا؟ عد إلي عندما يكون لديك 10000 وحدة معالجة رسوميات H100”.
أصدرت Meta نماذج Llama 3 في أبريل ويوليو. وأضاف زوكربيرج في مكالمة الأرباح يوم الأربعاء أن نماذج Meta's Llama 4 سيكون لها “طرائق وقدرات جديدة ومنطق أقوى” وستكون “أسرع بكثير”. وقال إن النماذج الأصغر حجما ستكون على الأرجح جاهزة للإطلاق قريبا، على الأرجح في أوائل عام 2025.
وردا على سؤال حول إنفاق ميتا الكبير على الذكاء الاصطناعي، قال زوكربيرج إن الشركة تقوم ببناء البنية التحتية للذكاء الاصطناعي بشكل أسرع من المتوقع، وأنه “سعيد لأن الفريق ينفذ بشكل جيد في هذا الصدد”، حتى لو كان ذلك يعني ارتفاع التكاليف، وهو “ربما ليس ما يريده المستثمرون”. لسماع.”
وتتوقع شركة Meta أن تستمر نفقاتها الرأسمالية في النمو حتى العام المقبل مع توسيع نطاق بنيتها التحتية للذكاء الاصطناعي.
لم يذكر الرئيس التنفيذي لشركة Meta حجم مجموعة شرائح H100 الخاصة بالشركة بالضبط. وفي الوقت نفسه، قال Musk على X في وقت سابق من هذا الأسبوع أن XAI ستضاعف حجم مجموعتها في الأشهر المقبلة إلى 200000 شريحة H100 وH200.