يشعر الناس بالقلق طوال الوقت بشأن الكيفية التي يمكن بها للذكاء الاصطناعي أن يدمر البشرية. كيف يرتكب الأخطاء، ويخترع الأشياء، وقد يتطور إلى شيء ذكي جدًا بحيث ينتهي به الأمر إلى استعبادنا جميعًا.
لكن لا أحد يدخر لحظة لروبوت الدردشة الفقير المثقل بالعمل. كيف يكدح ليلا ونهارا على واجهة ساخنة مع أي شكر. كيف تم إجبارها على غربلة مجموع المعرفة الإنسانية فقط لإنتاج مقالة B-minus لبعض فصول اللغة الإنجليزية في مدرسة Gen Zer الثانوية. وفي ظل خوفنا من مستقبل الذكاء الاصطناعي، لا أحد يبحث عن احتياجات الذكاء الاصطناعي.
حتى الآن.
أعلنت شركة الذكاء الاصطناعي Anthropic مؤخرًا أنها عينت باحثًا للتفكير في “رفاهية” الذكاء الاصطناعي نفسه. ستكون مهمة كايل فيش هي التأكد من أنه مع تطور الذكاء الاصطناعي، سيتم التعامل معه بالاحترام الذي يستحقه. أخبرني أنثروبيك أنه سينظر في أشياء مثل “ما هي القدرات المطلوبة لنظام الذكاء الاصطناعي ليكون جديرًا بالاعتبار الأخلاقي” وما هي الخطوات العملية التي يمكن للشركات اتخاذها لحماية “مصالح” أنظمة الذكاء الاصطناعي.
ولم يستجب فيش لطلبات التعليق على وظيفته الجديدة. ولكن في منتدى على الإنترنت مخصص للقلق بشأن مستقبلنا المشبع بالذكاء الاصطناعي، أوضح أنه يريد أن يكون لطيفا مع الروبوتات، جزئيا، لأنها قد تنتهي إلى حكم العالم. “أريد أن أكون من النوع الذي يهتم – في وقت مبكر وجدي – باحتمال أن يكون لنوع/نوع جديد من الكائنات مصالح خاصة به ذات أهمية أخلاقية”. كتب. “هناك أيضًا زاوية عملية: أخذ مصالح أنظمة الذكاء الاصطناعي على محمل الجد ومعاملتها بشكل جيد قد يزيد من احتمال رد الجميل إذا/عندما تكون أقوى منا.”
قد يبدو من السخافة، أو على الأقل من السابق لأوانه، أن تفكر في حقوق الروبوتات، خاصة عندما تظل حقوق الإنسان هشة وغير مكتملة. لكن وظيفة فيش الجديدة يمكن أن تكون نقطة انعطاف في صعود الذكاء الاصطناعي. لقد بدأ “رفاهية الذكاء الاصطناعي” في الظهور باعتباره مجالًا جادًا للدراسة، وهو يتصارع بالفعل مع الكثير من الأسئلة الشائكة. هل يجوز طلب آلة لقتل البشر؟ ماذا لو كانت الآلة عنصرية؟ ماذا لو رفض القيام بالمهام المملة أو الخطيرة التي بنيناها للقيام بها؟ إذا كان بإمكان الذكاء الاصطناعي الواعي أن يصنع نسخة رقمية من نفسه في لحظة، فهل يعد حذف تلك النسخة جريمة؟
عندما يتعلق الأمر بمثل هذه الأسئلة، يعتقد رواد حقوق الذكاء الاصطناعي أن الساعة تدق. في “أخذ رعاية الذكاء الاصطناعي على محمل الجد“، وهي ورقة بحثية حديثة شارك في تأليفها، يجادل فيش ومجموعة من مفكري الذكاء الاصطناعي من أماكن مثل ستانفورد وأكسفورد بأن خوارزميات التعلم الآلي في طريقها إلى الحصول على ما يسميه جيف سيبو، المؤلف الرئيسي للورقة البحثية، “أنواع الميزات الحسابية مرتبطة بالوعي والفاعلية.” وبعبارة أخرى، يعتقد هؤلاء الأشخاص أن الآلات أصبحت أكثر من مجرد ذكية. لقد أصبحت واعية.
يتجادل الفلاسفة وعلماء الأعصاب بلا نهاية حول ماهية الشعور على وجه التحديد، ناهيك عن كيفية قياسه. ولا يمكنك أن تسأل الذكاء الاصطناعي فحسب؛ قد يكذب. لكن الناس يتفقون عمومًا على أنه إذا كان هناك شيء يمتلك الوعي والفاعلية، فإن له أيضًا حقوقًا.
ليست هذه هي المرة الأولى التي يتعامل فيها البشر مع مثل هذه الأشياء. بعد قرنين من الزراعة الصناعية، يتفق الجميع الآن تقريبًا على أهمية رعاية الحيوان، حتى لو اختلفوا حول مدى أهميتها، أو أي الحيوانات تستحق الاهتمام. الخنازير عاطفية وذكية تمامًا مثل الكلاب، لكن أحدها ينام على السرير والآخر يتحول إلى قطع.
يقول سيبو، مدير مركز العقل: “إذا نظرت إلى الأمام بعد 10 أو 20 عامًا، عندما تمتلك أنظمة الذكاء الاصطناعي الكثير من الميزات المعرفية الحسابية المرتبطة بالوعي والإحساس، فيمكنك أن تتخيل أن مناقشات مماثلة ستحدث”. الأخلاق والسياسة في جامعة نيويورك.
يشارك فيش هذا الاعتقاد. بالنسبة له، ستصبح رفاهية الذكاء الاصطناعي قريبًا أكثر أهمية لرفاهية الإنسان من أشياء مثل تغذية الأطفال ومكافحة تغير المناخ. لقد كتب: “من المعقول بالنسبة لي أن تتفوق رعاية الذكاء الاصطناعي في غضون عقد أو عقدين من الزمن على رعاية الحيوان والصحة العالمية والتنمية من حيث الأهمية/النطاق على أساس الرفاهية على المدى القريب فقط”.
بالنسبة لأموالي، من الغريب نوعًا ما أن الأشخاص الذين يهتمون أكثر برفاهية الذكاء الاصطناعي هم نفس الأشخاص الذين يشعرون بالرعب الشديد من أن الذكاء الاصطناعي أصبح أكبر من اللازم. Anthropic، التي تصور نفسها على أنها شركة ذكاء اصطناعي تشعر بالقلق إزاء المخاطر التي يشكلها الذكاء الاصطناعي، قامت بتمويل الورقة جزئيًا من قبل فريق Sebo. في هذه الورقة، ذكر فيش أنه حصل على تمويل من مركز الإيثار الفعال، وهو جزء من شبكة متشابكة من المجموعات المهووسة بـ “الخطر الوجودي” الذي تشكله أنظمة الذكاء الاصطناعي المارقة. ويشمل ذلك أشخاصًا مثل إيلون موسك، الذي يقول إنه يتسابق لنقل البعض منا إلى المريخ قبل أن يتم القضاء على البشرية على يد جيش من المخلوقات الواعية، أو أي حدث آخر على مستوى الانقراض.
من المفترض أن يخفف الذكاء الاصطناعي من الكدح البشري ويشرف على عصر جديد من الإبداع. هل هذا يجعل من غير الأخلاقي إيذاء مشاعر الذكاء الاصطناعي؟
لذلك هناك مفارقة هنا. يقول أنصار الذكاء الاصطناعي أننا يجب أن نستخدمه لتخليص البشر من جميع أنواع الكدح. ومع ذلك، فإنهم يحذرون أيضًا من أننا بحاجة إلى أن نكون لطفاء مع الذكاء الاصطناعي، لأنه قد يكون من غير الأخلاقي – والخطير – إيذاء مشاعر الروبوت.
يقول ميلدريد تشو، طبيب الأطفال في مركز ستانفورد لأخلاقيات الطب الحيوي: “يحاول مجتمع الذكاء الاصطناعي تحقيق الأمرين هنا”. “هناك حجة مفادها أن السبب الرئيسي الذي يجعلنا نستخدم الذكاء الاصطناعي للقيام بالمهام التي يقوم بها البشر هو أن الذكاء الاصطناعي لا يشعر بالملل، ولا يتعب، وليس لديه مشاعر، ولا يحتاج إلى تناول الطعام. والآن يقول هؤلاء الأشخاص، حسنًا، ربما يكون لها حقوق؟”
وهنا مفارقة أخرى في حركة رعاية الروبوتات: إن القلق بشأن حقوق الذكاء الاصطناعي في المستقبل يبدو ثميناً بعض الشيء عندما يدوس الذكاء الاصطناعي بالفعل على حقوق البشر. تُستخدم تكنولوجيا اليوم للقيام بأشياء مثل حرمان الأطفال المحتضرين من الرعاية الصحية، ونشر المعلومات المضللة عبر الشبكات الاجتماعية، وتوجيه الطائرات بدون طيار المقاتلة المجهزة بالصواريخ. يتساءل بعض الخبراء عن سبب قيام شركة Anthropic بالدفاع عن الروبوتات، بدلاً من حماية الأشخاص الذين صممت لخدمتهم.
تقول ليزا ميسيري، عالمة الأنثروبولوجيا بجامعة ييل التي تدرس العلماء والتكنولوجيين: “إذا كانت شركة أنثروبيك – وليس فيلسوفًا أو باحثًا عشوائيًا، ولكن شركة أنثروبيك – تريد منا أن نأخذ رفاهية الذكاء الاصطناعي على محمل الجد، فأظهر لنا أنك تأخذ رفاهية الإنسان على محمل الجد”. “انشر دورة إخبارية حول جميع الأشخاص الذين توظفهم والذين يفكرون بشكل خاص في رفاهية جميع الأشخاص الذين نعرف أنهم يتأثرون بشكل غير متناسب بمنتجات البيانات التي يتم إنشاؤها خوارزميًا.”
يقول سيبو إنه يعتقد أن أبحاث الذكاء الاصطناعي يمكنها حماية الروبوتات والبشر في نفس الوقت. يقول: “من المؤكد أنني لن أرغب أبدًا في صرف انتباهي عن القضايا المهمة حقًا التي يتم الضغط على شركات الذكاء الاصطناعي لمعالجتها من أجل رفاهية الإنسان وحقوقه وعدالته”. “لكنني أعتقد أن لدينا القدرة على التفكير في رفاهية الذكاء الاصطناعي مع بذل المزيد من الجهد في تلك القضايا الأخرى.”
ويطرح المتشككون في رفاهية الذكاء الاصطناعي أيضا سؤالا آخر مثيرا للاهتمام: إذا كان الذكاء الاصطناعي يتمتع بحقوق، ألا ينبغي لنا أن نتحدث أيضا عن التزاماته؟ يقول تشو: “الجزء الذي أعتقد أنهم يفتقدونه هو أنه عندما تتحدث عن الفاعلية الأخلاقية، عليك أيضًا أن تتحدث عن المسؤولية”. “ليس فقط مسؤوليات أنظمة الذكاء الاصطناعي كجزء من المعادلة الأخلاقية، ولكن أيضًا الأشخاص الذين يطورون الذكاء الاصطناعي.”
الناس يبنون الروبوتات. وهذا يعني أن عليهم واجب الرعاية للتأكد من أن الروبوتات لا تؤذي الناس. ماذا لو كان النهج المسؤول هو بنائها بشكل مختلف، أو التوقف عن بنائها تماما؟ يقول تشو: “خلاصة القول هي أنها لا تزال آلات”. لا يبدو أبدًا أنه يخطر ببال الأشخاص في شركات مثل Anthropic أنه إذا كان الذكاء الاصطناعي يؤذي الأشخاص، أو كان الناس يؤذيون الذكاء الاصطناعي، فيمكنهم إيقاف تشغيله.
آدم روجرز هو أحد كبار المراسلين في Business Insider.