قبل ثلاث سنوات ، كانت تشير إلى أن الذكاء الاصطناعى “عاطفي” كانت إحدى الطرق للطرد في عالم التكنولوجيا. الآن ، شركات التكنولوجيا أكثر انفتاحًا على إجراء هذه المحادثة.

هذا الأسبوع ، أطلقت شركة AI Startup Anthropic مبادرة بحثية جديدة لاستكشاف ما إذا كانت النماذج قد تواجه يومًا ما “وعيًا” ، بينما وصف عالم في Google Deepmind نماذج اليوم بأنها “كيانات شبيهة بالعقل الغريبة”.

إنها علامة على مقدار تقدم الذكاء الاصطناعى منذ عام 2022 ، عندما تم إطلاق Blake Lemoine من وظيفته كمهندس Google بعد المطالبة بأن chatbot في الشركة ، Lamda ، أصبح جيدًا. وقال ليموين إن النظام يخشى أن يتم إيقاف تشغيله ووصف نفسه بأنه شخص. ووصف جوجل ادعاءاته “لا أساس لها من الصحة” ، وانتقل مجتمع الذكاء الاصطناعى بسرعة لإغلاق المحادثة.

لا أنثروبور ولا عالم جوجل يذهب إلى حد ليموين.

وقالت الأنثروبور ، الناشئة وراء كلود ، في منشور مدونة يوم الخميس إنها تخطط للتحقيق فيما إذا كانت النماذج قد يكون لها ذات يوم تجارب أو تفضيلات أو حتى ضائقة.

“هل يجب علينا أيضًا أن نشعر بالقلق إزاء الوعي وتجارب النماذج نفسها؟ هل يجب أن نشعر بالقلق نموذج الرفاه، أيضا؟ “سألت الشركة.

قال كايل فيش ، وهو عالم محاذاة في الأنثروبور الذي يبحث عن رفاهية الذكاء الاصطناعي ، في مقطع فيديو صدر يوم الخميس أن المختبر لا يزعم أن كلود واعي ، لكن النقطة المهمة هي أنه لم يعد مسؤولاً عن تولي الإجابة بالتأكيد لا.

وقال إنه عندما تصبح أنظمة الذكاء الاصطناعى أكثر تطوراً ، يجب على الشركات “أن تأخذ على محمل الجد إمكانية” أنها “قد” قد تنتهي بشيء من أشكال الوعي على طول الطريق “.

وأضاف: “هناك أسئلة تقنية وفلسفية معقدة بشكل مذهل ، ونحن في المراحل المبكرة للغاية من محاولة لف رؤوسنا من حولهم.”

وقال فيش إن الباحثين في التقدير الأنثروبري كلود 3.7 لديه فرصة بين 0.15 ٪ و 15 ٪ من الوعي. يدرس المختبر ما إذا كان النموذج يعرض التفضيلات أو التفضيلات ، واختبار آليات الإلغاء التي يمكن أن تسمح لها برفض مهام معينة.

في شهر مارس ، طرح الرئيس التنفيذي للأنثروبور داريو أمودي فكرة إعطاء أنظمة الذكاء الاصطناعى المستقبلية زر “لقد تركت هذه الوظيفة” – ليس لأنها عاطفية ، ولكن كوسيلة لمراقبة أنماط الرفض التي قد تشير إلى الانزعاج أو الاختلال.

وفي الوقت نفسه ، في Google Deepmind ، اقترح العالم الرئيسي موراي شاناهان أننا قد نحتاج إلى إعادة التفكير في مفهوم الوعي تمامًا.

وقال شاناهان في بودكاست Deepmind ، الذي نشر يوم الخميس: “ربما نحتاج إلى ثني أو كسر مفردات الوعي لتناسب هذه الأنظمة الجديدة”. “لا يمكنك أن تكون في العالم معهم كما يمكنك مع كلب أو أخطبوط – لكن هذا لا يعني أنه لا يوجد شيء هناك.”

يبدو أن Google تأخذ الفكرة على محمل الجد. سعت قائمة عمل حديثة إلى عالم أبحاث “ما بعد AAGI” ، مع المسؤوليات التي تشمل دراسة وعي الماكينة.

“قد نقدم أيضًا حقوقًا للحساب”

ليس كل شخص مقتنعًا ، ويقر العديد من الباحثين بأن أنظمة الذكاء الاصطناعى هي تقليد ممتازة يمكن تدريبها على التصرف الواعي حتى لو لم تكن كذلك.

وقال جاريد كابلان ، كبير مسؤولي العلوم في الأنثروبور ، في مقابلة مع صحيفة نيويورك تايمز هذا الأسبوع: “يمكننا مكافأتهم على قولهم ليس لديهم مشاعر”.

حذر كابلان من أن اختبار أنظمة الذكاء الاصطناعي للوعي أمر صعب بطبيعته ، على وجه التحديد لأنها جيدة في التقليد.

أخبر غاري ماركوس ، وهو عالم إدراكي وناقد للضجيج منذ فترة طويلة في صناعة الذكاء الاصطناعى ، Business Insider أنه يعتقد أن التركيز على وعي الذكاء الاصطناعي يتعلق بالعلامة التجارية أكثر من العلم.

وقال “ما تقوله شركة مثل أنثروبور حقًا هو” انظر إلى مدى ذكاء نماذجنا – إنها ذكية جدًا لأنها تستحق الحقوق “. “قد نمنح أيضًا حقوقًا للحساب وجداول البيانات – والتي (على عكس نماذج اللغة) لا تصنع الأشياء أبدًا.”

ومع ذلك ، قال فيش إن الموضوع سيصبح أكثر أهمية فقط حيث يتفاعل الناس مع الذكاء الاصطناعي بطرق أخرى – في العمل ، عبر الإنترنت ، أو حتى عاطفيًا.

وقال “سيصبح مجرد سؤال بارز بشكل متزايد ما إذا كانت هذه النماذج لديها تجارب خاصة بها – وإذا كان الأمر كذلك ، فما الأنواع”.

لم تستجب أنثروبور و Google DeepMind على الفور لطلب التعليق.