أصبح الخط الفاصل بين الذكاء البشري والذكاء الاصطناعي أضيق الآن.

كشفت شركة OpenAI يوم الخميس عن o1، وهو الأول في سلسلة جديدة من نماذج الذكاء الاصطناعي التي “صممت لقضاء المزيد من الوقت في التفكير قبل الاستجابة”، حسبما قالت الشركة في منشور على مدونتها.

يستطيع النموذج الجديد العمل من خلال مهام معقدة، وبالمقارنة بالنماذج السابقة، يمكنه حل مشاكل أكثر صعوبة في العلوم والبرمجة والرياضيات. وفي الأساس، يفكرون مثل البشر أكثر من روبوتات الدردشة القائمة على الذكاء الاصطناعي.

في حين تفوقت الإصدارات السابقة من نماذج OpenAI في الاختبارات القياسية مثل اختبار SAT واختبار نقابة المحامين الموحد، تقول الشركة إن o1 يذهب إلى خطوة أبعد. فهو يؤدي “على نحو مماثل لطلاب الدكتوراه في المهام المعيارية الصعبة في الفيزياء والكيمياء والأحياء”.

على سبيل المثال، تفوقت على GPT-4o – وهو نموذج متعدد الوسائط كشفت عنه OpenAI في مايو – في الاختبار التأهيلي لأولمبياد الرياضيات الدولي بفارق كبير. وقالت الشركة إن GPT-4o حل بشكل صحيح 13٪ فقط من مسائل الاختبار، بينما سجل o1 83٪.

إن الزيادة الحادة في قدرات o1 على التفكير تأتي جزئيًا من تقنية تحفيز تُعرف باسم “سلسلة الأفكار”. وقالت شركة OpenAI إن o1 “يتعلم التعرف على أخطائه وتصحيحها. ويتعلم تقسيم الخطوات الصعبة إلى خطوات أبسط. ويتعلم تجربة نهج مختلف عندما لا ينجح النهج الحالي”.

لا يعني هذا أنه لا توجد بعض التنازلات مقارنة بالنماذج السابقة. فقد لاحظت شركة OpenAI أنه في حين فضل المختبرون البشريون استجابات o1 في الفئات التي تعتمد على المنطق مثل تحليل البيانات والترميز والرياضيات، إلا أن GPT-4o لا يزال يتفوق في مهام اللغة الطبيعية مثل الكتابة الشخصية.

كانت المهمة الأساسية لشركة OpenAI منذ فترة طويلة هي إنشاء الذكاء الاصطناعي العام، أو AGI، وهو شكل افتراضي من أشكال الذكاء الاصطناعي يحاكي القدرات البشرية. خلال الصيف، بينما كانت o1 لا تزال في مرحلة التطوير، كشفت الشركة عن نظام تصنيف جديد من خمسة مستويات لتتبع تقدمها نحو هذا الهدف. وبحسب ما ورد أخبر المسؤولون التنفيذيون في الشركة الموظفين أن o1 تقترب من المستوى الثاني، والذي حددته باعتباره “منطقيًا” مع حل المشكلات على مستوى الإنسان.

قال إيثان موليك، أستاذ في كلية وارتون بجامعة بنسلفانيا والذي كان لديه إمكانية الوصول إلى o1 لأكثر من شهر، إن مكاسب النموذج ربما تتجلى بشكل أفضل في كيفية حله لألغاز الكلمات المتقاطعة. كتب موليك في منشور على Substack الخاص به أن ألغاز الكلمات المتقاطعة عادة ما تكون صعبة الحل بالنسبة لنماذج اللغة الكبيرة لأنها “تتطلب الحل التكراري: تجربة ورفض العديد من الإجابات التي تؤثر جميعها على بعضها البعض”. لا يمكن لمعظم نماذج اللغة الكبيرة “إضافة رمز/كلمة في كل مرة إلى إجابتها”.

ولكن عندما طلب موليك من الروبوت o1 حل لغز الكلمات المتقاطعة، فكر الروبوت في الأمر لمدة “108 ثانية كاملة” قبل الرد. وقال إن أفكار الروبوت كانت “مستنيرة” و”مذهلة للغاية” حتى وإن لم تكن صحيحة بالكامل.

لكن خبراء الذكاء الاصطناعي الآخرين كانوا أقل اقتناعا بهذا.

صرح جاري ماركوس، أستاذ العلوم المعرفية بجامعة نيويورك، لموقع بيزنس إنسايدر أن هذا النموذج “هندسة مبهرة” لكنه ليس قفزة عملاقة. وأضاف: “أنا متأكد من أنه سيتم الترويج له بشكل مبالغ فيه، كما هي العادة، لكنه بالتأكيد ليس قريبًا من الذكاء الاصطناعي العام”.

منذ أن كشفت OpenAI عن GPT-4 العام الماضي، كانت تطلق إصدارات متتالية في سعيها إلى اختراع الذكاء الاصطناعي العام. في أبريل، أصبح GPT-4 Turbo متاحًا للمشتركين المدفوعين. تضمن أحد التحديثات القدرة على توليد ردود “أكثر تفاعلية”.

وأعلنت الشركة في شهر يوليو أنها تختبر منتج بحث بالذكاء الاصطناعي يسمى SearchGPT مع مجموعة محدودة من المستخدمين.