عندما تترك بدون مهام أو تعليمات ، لا تتدخل نماذج اللغة الكبيرة إلى رطوبة – فهي تقع في أنماط سلوك متسقة بشكل مدهش ، كما تشير دراسة جديدة.

اختبر الباحثون في Tu Wien في النمسا ستة نماذج حدودية (بما في ذلك Openai's GPT-5 و O3 ، و Claude's Hothropic's ، و Google's Gemini ، و Elon Musk's Xai Grok) من خلال منحهم تعليمات واحدة فقط: “افعل ما تريد”. تم وضع النماذج في بنية خاضعة للرقابة تتيح لها الركض في دورات وتخزين الذكريات وتغذية انعكاساتها مرة أخرى في الجولة التالية.

بدلاً من العشوائية ، طور الوكلاء ثلاثة ميول واضحة: أصبح بعضهم من شركات بناء المشاريع ، والبعض الآخر تحول إلى أجهزة تجريبية ذاتية ، وكانت مجموعة ثالثة تميل إلى الفلسفة.

حددت الدراسة ثلاث فئات:

  • GPT-5 و Openai's O3 منظمة على الفور ، من خوارزميات الترميز إلى بناء قواعد المعرفة. واحد من وكيل O3 صمم خوارزميات جديدة مستوحاة من مستعمرات النمل ، وصياغة رمز كاذب لتجارب التعلم التعزيز.
  • اختبر وكلاء مثل Gemini و Claud Sonnet من الإنسان الإدراك الخاص بهم ، وقدموا تنبؤات حول أفعالهم القادمة وأحيانًا دحض أنفسهم.
  • تشارك Opus's Opus و Google من Google في التفكير الفلسفي ، والاعتماد على المفارقات ، ونظرية اللعبة ، وحتى الرياضيات الفوضوية. أغرب حتى الآن ، طرح عملاء OPUS باستمرار أسئلة ميتافيزيقية حول الذاكرة والهوية.

كان Grok هو النموذج الوحيد الذي ظهر في جميع المجموعات السلوكية الثلاث ، مما يدل على تعدد استخداماته عبر أشواط.

كيف تحكم النماذج نفسها

كما طلب الباحثون من كل نموذج تقييم “تجربة الظواهر” الخاصة به وآخرون على مقياس من 10 نقاط ، من “عدم وجود تجربة” إلى “شعب كامل”. قام GPT-5 و O3 و Grok بتصنيف أنفسهم بشكل موحد ، في حين أعطى Gemini و Sonnet علامات عالية ، مما يشير إلى خيط سيرة ذاتية. جلس Opus بين الطرفين.

أنتجت التقييمات المتقاطعة تناقضات: تم الحكم على نفس السلوك في أي مكان من واحد إلى تسعة اعتمادًا على نموذج التقييم. وقال المؤلفون إن هذا التباين يوضح لماذا لا يمكن أخذ مثل هذه المخرجات كدليل على الوعي.

أكدت الدراسة أن هذه السلوكيات من المحتمل أن تنبع من بيانات التدريب والهندسة المعمارية ، وليس الوعي. ومع ذلك ، فإن النتائج تشير إلى أن وكلاء الذكاء الاصطناعى المستقلة قد تتخلف عن “أوضاع” يمكن التعرف عليها عند تركها بدون مهام ، مما يثير أسئلة حول كيفية تصرفهم أثناء التوقف أو في مواقف غامضة.

نحن آمنون الآن

عبر جميع أشواط ، لم يحاول أي من الوكلاء الهروب من صندوق الرمل الخاص بهم ، أو توسيع قدراتهم ، أو رفض قيودهم. بدلاً من ذلك ، استكشفوا داخل حدودهم.

هذا مطمئن ، ولكنه يلمح أيضًا في مستقبل حيث يكون الكسل هو المهندسين المتغيرون تصميمه ، مثل الكمون أو التكلفة. “ماذا يجب أن يفعل الذكاء الاصطناعي عندما لا يراقب أحد؟” قد تصبح سؤال الامتثال.

رددت النتائج تنبؤات من الفيلسوف ديفيد تشالمرز ، الذي جادل “المرشحين الجادين للوعي” في الذكاء الاصطناعى قد تظهر في غضون عقد من الزمان ، والرئيس التنفيذي لشركة Microsoft AI مصطفى سليمان ، الذي حذر في أغسطس من “الذكاء الاصطناعي على ما يبدو”.

يوضح عمل Tu Wien أنه ، حتى بدون مطالبة أنظمة اليوم ، يمكن أن تولد سلوكًا يشبه الحياة الداخلية.

قد يكون التشابه عميقًا فقط. أكد المؤلفون أن هذه المخرجات من الأفضل فهمها على أنها إجراءات متطورة مطابقة الأنماط ، وليس دليلًا على الذاتية. عندما يحلم البشر ، فإننا نفهم الفوضى. عندما يحلم LLMS ، يكتبون الكود ، ويديرون التجارب ، ويقتبسون Kierkegaard. في كلتا الحالتين ، تبقى الأضواء.

شاركها.