Here’s an SEO-optimized, human-sounding article in Arabic about the topic you provided:

حوار جديد: وادي السيليكون يتجه نحو الزعماء الدينيين لصياغة مستقبل الذكاء الاصطناعي

مع تسارع وتيرة التطور في مجال الذكاء الاصطناعي وتزايد مخاوف دمجه السريع في نسيج المجتمع، نشهد تحولًا مفاجئًا في وادي السيليكون. فبعد عقود من التشكك تجاه الدين المنظم، باتت شركات التكنولوجيا الرائدة تلجأ الآن إلى الزعماء الدينيين بحثًا عن إرشادات أخلاقية حاسمة لتشكيل مستقبل هذه التقنية القوية.

شراكة غير متوقعة: الدين والذكاء الاصطناعي في مواجهة التحديات

في خطوة لافتة، اجتمع مؤخرًا قادة من مختلف المعتقدات الدينية مع ممثلين عن شركات عملاقة في مجال الذكاء الاصطناعي، مثل Anthropic وOpenAI. عُقد هذا الاجتماع كجزء من المائدة المستديرة الافتتاحية “ميثاق الإيمان والذكاء الاصطناعي” في نيويورك. كان الهدف هو استكشاف سبل غرس القيم الأخلاقية والمبادئ السلوكية في التكنولوجيا سريعة التطور.

نُظمت هذه المبادرة الرائدة من قبل تحالف الأديان من أجل مجتمعات أكثر أمانًا، ومقره جنيف. يسعى هذا التحالف إلى معالجة قضايا ملحة مثل التطرف، والتشدد، والاتجار بالبشر، مستفيدًا من التأثير العالمي لهذه التقنيات. ومن المتوقع أن تكون هذه المائدة المستديرة مجرد بداية لسلسلة من الاجتماعات المشابهة التي ستُعقد في مدن عالمية كبرى مثل بكين ونيروبي وأبو ظبي.

ضرورة الوعي بالمسؤولية

أكدت البارونة جوانا شيلدز، الشريك الرئيسي في هذه المبادرة، على الحاجة الماسة للمسؤولين التنفيذيين في قطاع التكنولوجيا لإدراك قوتهم الهائلة، وبالتالي مسؤوليتهم، في اتخاذ القرارات الصحيحة. وبصفتها مديرة تنفيذية سابقة في شركات مثل جوجل وفيسبوك، ثم تحولها إلى المجال السياسي في بريطانيا، ترى شيلدز أن التنظيمات التقليدية غالبًا ما تعجز عن مواكبة سرعة تطور الذكاء الاصطناعي.

من ناحية أخرى، تمتلك الأديان العالمية، بأتباعها الذين يقدرون بالمليارات، “خبرة عميقة في رعاية السلامة الأخلاقية للأفراد”. وشددت شيلدز على أهمية منح الزعماء الدينيين صوتًا مؤثرًا في هذه المناقشات، مشيرة إلى أن المسؤولين عن بناء تقنيات الذكاء الاصطناعي بحاجة إلى فهم حقيقي لقوة وقدرات ما يقومون بابتكاره، وغالبًا ما تكون لديهم الرغبة في القيام بذلك بشكل صحيح.

نحو معايير مشتركة

يكمن الهدف الأساسي لهذه المبادرة، حسبما أوضحت شيلدز، في “تطوير مجموعة من المعايير أو المبادئ”. هذه المبادئ ستكون نتاجًا لتجارب ورؤى المجموعات الدينية المختلفة، بدءًا من المسيحيين وصولًا إلى السيخ والبوذيين، ومن ثم ستلتزم بها الشركات التكنولوجية.

تحديات على الطريق: تفاوت الرؤى الدينية

شهد الاجتماع حضورًا متنوعًا من جماعات دينية مختلفة. شارك ممثلون عن جمعية المعبد الهندوسي في أمريكا الشمالية، والطائفة البهائية الدولية، وائتلاف السيخ، وأبرشية الروم الأرثوذكس في أمريكا، وكنيسة يسوع المسيح لقديسي الأيام الأخيرة (المعروفة بكنيسة المورمون).

قبل عقد هذه المبادرة، كانت بعض هذه الكنائس والمؤسسات الدينية قد أصدرت بالفعل إرشاداتها الخاصة حول استخدام الذكاء الاصططناعي. على سبيل المثال، قدمت كنيسة يسوع المسيح لقديسي الأيام الأخيرة موافقة مشروطة على التكنولوجيا في كتيباتها، مؤكدة أن “الذكاء الاصطناعي لا يمكن أن يحل محل هبة الإلهام الإلهي أو العمل الفردي المطلوب لتلقيها، ولكنه يمكن أن يكون أداة مفيدة لتعزيز التعلم والتدريس”.

مبادرات استباقية من المؤسسات الدينية

من جهة أخرى، أصدر المؤتمر المعمداني الجنوبي، وهو أكبر طائفة بروتستانتية في الولايات المتحدة، قرارًا في عام 2023 يدعو إلى “الانخراط الاستباقي في هذه التقنيات الناشئة وتشكيلها، بدلاً من مجرد الاستجابة لتحديات الذكاء الاصطناعي وغيرها من التقنيات الناشئة بعد أن يكون لها تأثير بالفعل على كنائسنا ومجتمعاتنا”.

لكن أحد التحديات الرئيسية في إنشاء قائمة موحدة من المبادئ المشتركة يكمن في أن الأديان العالمية، على الرغم من وجود أرضية مشتركة، تختلف في قيمها واحتياجاتها. تعليقًا على ذلك، أشارت الحاخام ديانا جيرسون، المشاركة في المائدة المستديرة ونائبة الرئيس التنفيذي المساعد لمجلس حاخامات نيويورك، إلى أن “المجتمعات الدينية ترى الأولويات بشكل مختلف”.

تزايد التحالف بين الإيمان والتكنولوجيا

تسلط هذه الشراكة الضوء على التحالف المتنامي بين الإيمان والتكنولوجيا، والذي نشأ في سياق الجهود المبذولة لخلق ذكاء اصطناعي أخلاقي. يثير هذا المفهوم جدلاً حول مدى إمكانية تحقيق ذلك وما يعنيه ذلك عمليًا.

في “دستور كلود” العام، وهو نص مكتوب لروبوت الدردشة الخاص بها، تعلن Anthropic: “نريد من كلود أن يفعل ما سيفعله شخص ذو أخلاقيات عميقة ومهارة في موقف كلود”. وقد تم وضع هذا الدستور بمساعدة مجموعة من الزعماء الدينيين والأخلاقيين.

في هذا التحالف المزدهر، كانت Anthropic هي الأكثر حزمًا، على الأقل علنًا، في جهودها لجذب الزعماء الدينيين. تأتي هذه الخطوة وسط قلق عام أعقب جدلًا سابقًا هذا العام مع البنتاجون بشأن الاستخدام العسكري للذكاء الاصطناعي، بعد أن أعلنت Anthropic عن قيود على استخدام تقنياتها لتطوير أسلحة ذاتية التحكم أو للمراقبة الجماعية.

شكوك ومخاوف من التأثير الحقيقي

ومع ذلك، لا يتفق الجميع على أن هذه الجهود صادقة. يرى بريان بويد، مسؤول الاتصال الديني الأمريكي لمعهد مستقبل الحياة غير الربحي، أن هناك جانبًا علاقات عامة في هذه المبادرات. وأشار إلى أن “هناك التزامًا أخلاقيًا من جانب الشركات يعترفون به متأخرًا، كما أعتقد أن هناك استجوابًا جادًا لبعض أعضاء الشركات”.

من جهتها، تعرب رومان شودري، الرئيسة التنفيذية لمنظمة Humane Intelligence غير الربحية، عن شكوكها، قائلة: “في أحسن الأحوال، هذا إلهاء. وفي أسوأ الأحوال، فهو صرف انتباه عن الأشياء المهمة حقًا”.

لا ترى شودري أن الدين هو المصدر الأمثل للمساعدة في الإجابة على الأسئلة المتعلقة بالذكاء الاصطناعي والأخلاق، لكنها تفهم سبب اتجاه الشركات إليه. وتضيف: “أعتقد أن الفكرة الساذجة للغاية التي اتبعها وادي السيليكون منذ عامين فيما يتعلق بالذكاء الاصطناعي التوليدي هي أننا يمكن أن نتوصل إلى نوع من المبادئ الأخلاقية العالمية”. وأوضحت أن الشركات “أدركت بسرعة كبيرة أن هذا ليس صحيحًا. هذا ليس حقيقيًا. لذا فإنهم الآن ينظرون إلى الدين كوسيلة للتعامل مع غموض المواقف الرمادية أخلاقيًا”.

من غير الواضح إلى أي مدى تقوم هذه الشركات بترجمة ما تسمعه من القادة الدينيين إلى أفعال ملموسة. لكن بعض النقاد يخشون أن التركيز على إنشاء نسخ أخلاقية من التكنولوجيا يصرف الانتباه عن المحادثات الأوسع حول دور الذكاء الاصطناعي في المجتمع.

“تحت ستار أننا سنبني كل هذه الأشياء، يبدو الأمر وكأن الأمر مسلم به. وعندما نبني هذه الأشياء بهذه الطرق، كيف نتأكد من أن النتيجة النهائية ربما تكون جيدة؟” يتساءل ديلان بيكر، كبير مهندسي الأبحاث في معهد أبحاث الذكاء الاصطناعي الموزع. ويختتم قائلاً: “يبدو الأمر وكأننا نقول ‘انتظر، انتظر، انتظر. نحن بحاجة إلى التساؤل عما إذا كنا نريد بناء هذه الأشياء على الإطلاق'”.


(تتلقى التغطية الدينية لوكالة أسوشيتد برس الدعم من خلال تعاون AP مع The Conversation US، بتمويل من شركة Lilly Endowment Inc.، وAP هي المسؤولة الوحيدة عن هذا المحتوى.)

شاركها.