مدينة الفاتيكان (AP) – أ الفاتيكان تقدم الوثيقة التي تم إصدارها يوم الثلاثاء إرشادات أخلاقية واسعة النطاق لتطبيق الذكاء الاصطناعي في قطاعات من الحرب إلى الرعاية الصحية ، مع دعوة أساسية يجب استخدام التكنولوجيا المزدهرة كأداة لاستكمال الذكاء البشري وليس استبداله.

البابا فرانسيس لديه أصدرت عدة تحذيرات حول المخاطر المرتبطة بتكنولوجيا الذكاء الاصطناعى ، وتتوسع هذه الوثيقة الجديدة من قبل عقيدة الفاتيكان والمكاتب الثقافية على ما قاله الحبر بالفعل. إنه يأتي بمثابة chatbot من الذكاء الاصطناعى من قبل بدء التشغيل الصيني للتكنولوجيا ديبسيك رفعت المخاطر في سباق تكنولوجيا الذكاء الاصطناعى ، ومتابعة قادة الذكاء الاصطناعى الأمريكيين في جزء صغير من التكلفة.

تؤكد الوثيقة أن المسؤولية الإنسانية تحتاج إلى أن تنمو بما يتناسب مع التكنولوجيا الجديدة ، وأن تأثير استخدامات الذكاء الاصطناعى في مختلف القطاعات “قد لا يمكن التنبؤ بها دائمًا من بدايتها”.

وقالت الوثيقة في استنتاجها: “يجب استخدام الذكاء الاصطناعى فقط كأداة لاستكمال الذكاء البشري ، بدلاً من استبدال ثراءها.

الذكاء الاصطناعي والحرب

تحذر الوثيقة من أن الذكاء الاصطناعى لديه القدرة على زيادة أدوات الحرب “خارج نطاق الإشراف على الإنسان” ، والتي يمكن أن تثير “سباق التسلح المزعزع للاستقرار”. وقالت إن أنظمة الأسلحة التي يمكنها تحديد الأهداف وضربها دون تدخل بشري ، وإزالة “القدرة البشرية الفريدة للحكم الأخلاقي واتخاذ القرارات الأخلاقية”.

وحذرت الوثيقة: “لا ينبغي على أي آلة أن تختار أن تأخذ حياة إنسان”.

منظمة العفو الدولية والعلاقات الإنسانية

تحذر الوثيقة من أن الذكاء الاصطناعى ليس بديلاً عن “العلاقات الإنسانية الأصيلة” ، ويشير إلى افتقارها إلى التعاطف كخطر عند تجسيد الذكاء الاصطناعي في مجالات مثل تنمية الطفل أو العلاقات الشخصية.

وقالت الوثيقة: “على الرغم من أن البشر يهدفون إلى تجربة علاقات حقيقية ، إلا أن الذكاء الاصطناعى لا يمكنهم محاكاةها إلا”.

منظمة العفو الدولية والبحث عن المعنى

تشير المستند إلى خطر مفاده أنه “مع انجذاب المجتمع بعيدًا عن العلاقة مع المتسامي ، يتم إغراء بعضها بالتحول إلى الذكاء الاصطناعي بحثًا عن المعنى والوفاء – الشوق الذي لا يمكن أن يكون راضياً عن الله إلا بالتواصل مع الله.”

وقالت الوثيقة: “إن افتراض استبدال الله عن قطعة أثرية من صنع الإنسان هو عبادة الأصنام ، وهو كتاب تدريبي يحذر صراحة من”.

الذكاء الاصطناعي والخصوصية/المراقبة

وقالت الوثيقة إن التقدم في معالجة البيانات التي تعمل بمواد الذكاء الاصطناعى جعلت خصوصية البيانات “أكثر أهمية كحماية لكرامة وطبيعة العلائقية”.

وقال “يجب مراقبة خطر تجاوز المراقبة من قبل المنظمين المناسبين لضمان الشفافية والمساءلة العامة”.

الذكاء الاصطناعي والبيئة

أكدت الوثيقة أنه على الرغم من أن الذكاء الاصطناعى يمكن أن يساعد في محاربة تغير المناخ من خلال النماذج للتنبؤ بالأحداث المتطرفة ، والمساعدة في إدارة حالات الطوارئ والمساعدة في تعزيز التنمية المستدامة ، فإنها تشكل أيضًا مخاطر تحجبها استخدام كلمات مثل “السحابة” التي تفصل عن تخزين البيانات “من تخزين البيانات” العالم المادي. “

وقالت الوثيقة: “من الأهمية بمكان أن ندرك أن عمليتها تتطلب كميات هائلة من الطاقة والمياه ، مما يساهم بشكل كبير في انبعاثات ثاني أكسيد الكربون”.

منظمة العفو الدولية والتعليم

قالت الوثيقة إن الذكاء الاصطناعي يجب أن يساعد في تعزيز التفكير النقدي ، وليس فقط تدريب “الشباب على جمع المعلومات وتوليد ردود سريعة.” لا يتعلق التعليم “بملء رأس المرء بالأفكار” ، ولكن “يتعلق بالمخاطر في التوترات بين العقل والقلب واليدين”.

وقالت الوثيقة: “يتم تحدي المدارس والجامعات والمجتمعات العلمية لمساعدة الطلاب والمهنيين على فهم الجوانب الاجتماعية والأخلاقية لتطوير واستخدامات التكنولوجيا”.

الذكاء الاصطناعي والرعاية الصحية

مع الإشارة إلى إمكانات الذكاء الاصطناعي لتعزيز الرعاية الطبية ، كما هو الحال في تشخيص المرض ، قالت الوثيقة إنه من الأهمية بمكان استخدام الذكاء الاصطناعي لتعزيز وليس “استبدال العلاقة بين المرضى ومقدمي الرعاية الصحية”.

وقالت الوثيقة: “يجب أن تظل القرارات المتعلقة بعلاج المريض ووزن المسؤولية التي يستلزمها دائمًا مع الشخص البشري ، ويجب ألا يتم تفويضها أبدًا إلى الذكاء الاصطناعي”.

الذكاء الاصطناعي والمعلومات الخاطئة/Deepfakes

وقالت الوثيقة إن الذكاء الاصطناعى يمثل خطر “توليد المحتوى المعالج والمعلومات الخاطئة ، والتي يمكن أن تضلل الناس بسهولة بسبب تشابهها مع الحقيقة”.

“إن مواجهة الأكاذيب التي تحركها الذكاء الاصطناعي ليست فقط عمل خبراء الصناعة-فهي تتطلب جهود جميع الناس ذوي النوايا الحسنة” ، ” لما ينشرونه “.

شاركها.