يمكن أن يحصل Aidan Gomez على بعض الفضل في حرف “T” في نهاية ChatGPT. لقد كان جزءًا من مجموعة مهندسي Google الذين قدموا لأول مرة نموذجًا جديدًا للذكاء الاصطناعي يسمى المحول.

وقد ساعد ذلك في وضع الأساس لطفرة الذكاء الاصطناعي المولدة اليوم والتي قامت شركة OpenAI، الشركة المصنعة لـ ChatGPT، وغيرها بالبناء عليها. كان جوميز، أحد المؤلفين الثمانية المشاركين في بحث جوجل لعام 2017، متدربًا يبلغ من العمر 20 عامًا في ذلك الوقت.

وهو الآن الرئيس التنفيذي والمؤسس المشارك لشركة Cohere، وهي شركة ناشئة مقرها تورونتو تتنافس مع شركات الذكاء الاصطناعي الرائدة الأخرى في توفير نماذج لغوية كبيرة وروبوتات الدردشة التي تدعمها للشركات والمؤسسات الكبرى.

تحدث جوميز عن مستقبل الذكاء الاصطناعي التوليدي مع وكالة أسوشيتد برس. تم تحرير المقابلة من أجل الطول والوضوح.

س: ما هو المحول؟

ج: المحول عبارة عن بنية لشبكة عصبية – وهي بنية الحساب الذي يحدث داخل النموذج. السبب الذي يجعل المحولات مميزة مقارنة بأقرانها – البنى المتنافسة الأخرى، والطرق الأخرى لبناء الشبكات العصبية – هو في الأساس أنها تتسع بشكل جيد للغاية. ويمكن تدريبهم ليس فقط على الآلاف، بل على عشرات الآلاف من الرقائق. يمكن تدريبهم بسرعة كبيرة. إنهم يستخدمون العديد من العمليات المختلفة التي تم تصميم وحدات معالجة الرسومات (شرائح الرسومات) من أجلها. بالمقارنة مع ما كان موجودًا قبل المحول، فإنهم يقومون بهذه المعالجة بشكل أسرع وأكثر كفاءة.

س: ما مدى أهميتها بالنسبة لما تفعله في Cohere؟

ج: مهم للغاية. نحن نستخدم بنية المحولات كما يفعل أي شخص آخر في بناء نماذج لغوية كبيرة. بالنسبة لشركة Cohere، يتم التركيز بشكل كبير على قابلية التوسع والاستعداد الإنتاجي للمؤسسات. بعض النماذج الأخرى التي ننافسها ضخمة وغير فعالة على الإطلاق. لا يمكنك في الواقع وضع ذلك في مرحلة الإنتاج، لأنه بمجرد أن تواجه مستخدمين حقيقيين، ترتفع التكاليف وينهار الاقتصاد.

س: ما هو المثال المحدد لكيفية استخدام العميل لنموذج Cohere؟

ج: لدي مثال مفضل في مجال الرعاية الصحية. وينبع ذلك من الحقيقة المدهشة المتمثلة في أن 40% من يوم عمل الطبيب يقضيه في كتابة ملاحظات المرضى. فماذا لو تمكنا من توصيل الأطباء بجهاز استماع سلبي صغير للمتابعة معهم طوال اليوم، بين زيارات المرضى، والاستماع إلى المحادثة وملء تلك الملاحظات مسبقًا بحيث بدلاً من الاضطرار إلى كتابتها من الصفر، هناك المسودة الأولى هناك. يمكنهم قراءتها وإجراء التعديلات فقط. وفجأة، زادت قدرة الأطباء بنسبة هائلة.

س: كيف يمكنك معالجة مخاوف العملاء بشأن كون نماذج لغة الذكاء الاصطناعي عرضة “للهلوسة” (الأخطاء) والتحيز؟

ج: يشعر العملاء بالقلق دائمًا بشأن الهلوسة والتحيز. يؤدي إلى تجربة منتج سيئة. لذلك فهو شيء نركز عليه بشدة. بالنسبة للهلوسة، لدينا تركيز أساسي على RAG، وهو توليد الاسترجاع المعزز. لقد أصدرنا للتو نموذجًا جديدًا يسمى Command R والذي يستهدف RAG بشكل صريح. فهو يتيح لك ربط النموذج بمصادر خاصة للمعرفة الموثوقة. قد يكون ذلك المستندات الداخلية لمؤسستك أو رسائل البريد الإلكتروني الخاصة بموظف معين. أنت تمنح النموذج إمكانية الوصول إلى المعلومات التي لم يراها على الويب عندما كان يتعلم. المهم هو أنه يسمح لك أيضًا بالتحقق من صحة النموذج، لأنه الآن بدلاً من مجرد إدخال النص وإخراج النص، يقوم النموذج فعليًا بالإشارة إلى المستندات. ويمكنه الرجوع إلى المكان الذي حصل فيه على تلك المعلومات. يمكنك التحقق من عملها واكتساب المزيد من الثقة في العمل باستخدام الأداة. أنه يقلل من الهلوسة بشكل كبير.

س: ما هي أكبر المفاهيم الخاطئة العامة حول الذكاء الاصطناعي التوليدي؟

ج: الخوف الذي يتبناه بعض الأفراد والمنظمات من كون هذه التكنولوجيا بمثابة خطر وجودي. تلك هي القصص التي ظلت الإنسانية ترويها لنفسها منذ عقود. التكنولوجيا تأتي وتسيطر علينا وتحل محلنا، وتجعلنا خاضعين. إنهم متجذرون بعمق في جذع الدماغ الثقافي للجمهور. إنها رواية بارزة جدًا. من الأسهل أن تستحوذ على خيال الناس وخوفهم عندما تخبرهم بذلك. لذلك نوليها الكثير من الاهتمام لأنها قصة جذابة للغاية. لكن الحقيقة هي أنني أعتقد أن هذه التكنولوجيا ستكون جيدة للغاية. هناك الكثير من الحجج حول الكيفية التي قد تسوء بها الأمور، وأولئك الذين يقومون بتطوير التكنولوجيا منا يدركون تمامًا تلك المخاطر ويعملون على تخفيفها. نحن جميعا نريد أن يسير هذا على ما يرام. نحن جميعًا نريد أن تكون التكنولوجيا مفيدة للإنسانية، وليست تهديدًا لها.

س: ليس OpenAI فحسب، بل أيضًا عدد من شركات التكنولوجيا الكبرى التي تقول الآن صراحةً إنها تحاول بناء ذكاء اصطناعي عام (مصطلح يشير إلى الذكاء الاصطناعي الأفضل على نطاق واسع من البشر). هل الذكاء الاصطناعي العام جزء من مهمتك؟

ج: لا، لا أرى ذلك كجزء من مهمتي. بالنسبة لي، الذكاء الاصطناعي العام ليس هو الهدف النهائي. الهدف النهائي هو إحداث تأثير إيجابي عميق على العالم بهذه التكنولوجيا. إنها تقنية عامة جدًا. إنه المنطق، إنه الذكاء. لذلك ينطبق في كل مكان. ونريد التأكد من أن هذا هو الشكل الأكثر فعالية من التكنولوجيا، في أقرب وقت ممكن. إنه ليس سعيًا دينيًا زائفًا للذكاء الاصطناعي العام، والذي لا نعرف حتى تعريفه حقًا.

س: ماذا بعد؟

ج: أعتقد أنه يجب على الجميع أن يراقبوا استخدام الأدوات والسلوكيات الشبيهة بالوكلاء. النماذج التي يمكنك تقديمها لأول مرة باستخدام أداة قمت بإنشائها. ربما يكون برنامجًا أو واجهة برمجة التطبيقات (واجهة برمجة التطبيقات). ويمكنك أن تقول، “مرحبًا أيها النموذج، لقد قمت للتو ببناء هذا.” وإليك ما يفعله. وإليك كيفية التفاعل معها. وهذا جزء من مجموعة أدواتك التي تحتوي على الأشياء التي يمكنك القيام بها.’ هذا المبدأ العام المتمثل في القدرة على إعطاء النموذج أداة لم يسبق له مثيل من قبل ويمكنه اعتمادها بفعالية، أعتقد أنه سيكون قويًا للغاية. من أجل القيام بالكثير من الأشياء، تحتاج إلى الوصول إلى الأدوات الخارجية. الوضع الراهن هو أن النماذج يمكنها فقط كتابة أحرف (نصية) إليك. إذا منحتهم إمكانية الوصول إلى الأدوات، فيمكنهم بالفعل اتخاذ إجراء في العالم الحقيقي نيابة عنك.

شاركها.