لنظمة الذكاء الاصطناعية المتقدمة ، إن أنظمة الذكاء الاصطناعي المتقدم لديها القدرة على خلق مخاطر جديدة شديدة ، مثل تأجيج خسائر الوظائف الواسعة النطاق ، أو تمكين الإرهاب أو إدارة AMOK. تشكلها التكنولوجيا.

يتم إصدار التقرير العلمي الدولي عن سلامة الذكاء الاصطناعى المتقدم قبل قمة منظمة العفو الدولية الرئيسية في باريس الشهر المقبل. وتدعم الورقة 30 دولة بما في ذلك الولايات المتحدة والصين ، مما يمثل تعاونًا نادرًا بين البلدين أثناء قتالهما بسبب تفوق الذكاء الاصطناعي ، الذي أبرزته بدء التشغيل الصيني ديبسيك مذهلة في العالم هذا الأسبوع مع chatbot ميزانيته على الرغم منا ضوابط التصدير على الرقائق المتقدمة إلى البلاد.

ال تقرير من قبل مجموعة من الخبراء المستقلين “توليفة” للبحث الحالي تهدف إلى مساعدة المسؤولين الذين يعملون على وضع الدرابزين للتكنولوجيا المتقدمة بسرعة ، قال يوشوا بينجيو ، عالم منظمة العفو الدولية البارز الذي قاد الدراسة ، لصحيفة وكالة أسوشيتد برس في مقابلة.

يقول التقرير: “إن المخاطر عالية” ، مشيرًا إلى أنه على الرغم من أن أفضل أنظمة الذكاء الاصطناعى قبل بضع سنوات كانت بالكاد يمكن أن تبصق فقرة متماسكة ، يمكنهم الآن كتابة برامج الكمبيوتر وإنشاء صور واقعية وإجراء محادثات ممتدة.

على الرغم من أن بعض الأضرار المعروفة على نطاق واسع بالفعل ، مثل Deepfakes ، عمليات الاحتيال والنتائج المتحيزة ، قال التقرير “مع انعقاد الذكاء الاصطناعي للأغراض العامة ، فإن دليلًا على وجود مخاطر إضافية ناشئة تدريجياً” وأن تقنيات إدارة المخاطر هي فقط في مراحلها المبكرة فقط .

يأتي وسط تحذيرات هذا الأسبوع حول الذكاء الاصطناعي من الفاتيكان والمجموعة وراء ساعة يوم القيامة.

يركز التقرير على AI للأغراض العامة ، التي يميزها chatbots مثل chatgpt من Openai المستخدم لتنفيذ العديد من الأنواع المختلفة من المهام. تنقسم المخاطر إلى ثلاث فئات: الاستخدام الخبيث ، والتعطل والمخاطر “النظامية” الواسعة النطاق.

بنجو ، الذي فاز بهما رواد من الذكاء الاصطناعى أفضل جائزة لعلوم الكمبيوتر في عام 2019 ، قال الخبراء الـ 100 الذين اجتمعوا على التقرير لا يتفقون جميعًا على ما يمكن توقعه من الذكاء الاصطناعى في المستقبل. من بين أكبر الخلافات في مجتمع أبحاث الذكاء الاصطناعى توقيت عندما تتجاوز تقنية التطوير السريع القدرات البشرية عبر مجموعة متنوعة من المهام وما يعنيه ذلك.

“إنهم لا يوافقون أيضًا على السيناريوهات” ، قال بنغو. “بالطبع ، لا أحد لديه كرة بلورية. بعض السيناريوهات مفيدة للغاية. البعض مرعب. أعتقد أنه من المهم حقًا لصانعي السياسات والجمهور أن يقوموا بتقييم عدم اليقين هذا. “

بحث الباحثون في التفاصيل المحيطة بالمخاطر المحتملة. يسهل منظمة العفو الدولية ، على سبيل المثال ، تعلم كيفية إنشاء أسلحة بيولوجية أو كيميائية لأن نماذج الذكاء الاصطناعى يمكن أن توفر خططًا خطوة بخطوة. لكن من غير الواضح مدى جودة التحديات العملية “المتمثلة في تسليح الأسلحة وتقديم الوكلاء.

يقول التقرير إن الغرض العام من المرجح أن يحول مجموعة من الوظائف و “العمال المحلفين” ، مشيرًا إلى أن بعض الباحثين يعتقدون أنه يمكن أن يخلق وظائف أكثر مما يأخذها ، بينما يعتقد آخرون أنه سيؤدي إلى خفض الأجور أو معدلات التوظيف ، على الرغم من ذلك ، هناك الكثير من عدم اليقين حول كيفية تشغيله.

وقال التقرير إن أنظمة الذكاء الاصطناعى قد تنفد أيضًا عن السيطرة ، إما لأنها تقوض الإشراف البشري أو الانتباه بشكل فعال.

ومع ذلك ، فإن مجموعة كبيرة من العوامل تجعل من الصعب إدارة المخاطر ، بما في ذلك مطوري الذكاء الاصطناعى الذين يعرفون القليل عن كيفية عمل نماذجهم ، كما قال المؤلفون.

تم تكليف الورقة في قمة عالمية افتتاحية على سلامة الذكاء الاصطناعي التي استضافتها من قبل بريطانيا في نوفمبر 2023 ، حيث وافقت الدول على العمل معًا لاحتواء “مخاطر كارثية”. في اجتماع متابعة استضافته كوريا الجنوبية في العام الماضي ، تعهدت شركات الذكاء الاصطناعى بتطوير سلامة الذكاء الاصطناعى بينما دعم قادة العالم إنشاء شبكة من معاهد السلامة من الذكاء الاصطناعى العامة.

يهدف التقرير ، الذي تدعمه الأمم المتحدة والاتحاد الأوروبي أيضًا ، إلى التغيرات في الحكومات ، مثل الانتقال الرئاسي الأخير في الولايات المتحدة ، مما يتركه لكل بلد لاختيار كيفية استجابة لمخاطر الذكاء الاصطناعي. ألغى الرئيس دونالد ترامب سياسات سلامة الرئيس السابق جو بايدن في أول يوم له في منصبه ، ومنذ ذلك الحين ، وجه إدارته الجديدة إلى صياغة مقاربتها الخاصة. لكن ترامب لم يتخذ أي خطوة لحل معهد سلامة الذكاء الاصطناعي الذي شكله بايدن العام الماضي ، وهو جزء من شبكة دولية متزايدة من هذه المراكز.

من المتوقع أن يقوم قادة العالم ورؤساء التكنولوجيا والمجتمع المدني بالتجميع مرة أخرى في قمة عمل باريس في الفترة من 10 إلى 11 فبراير. قال المسؤولون الفرنسيون إن الدول ستوقع على “إعلان مشترك” بشأن تنمية الذكاء الاصطناعي ، وتوافق على التعهد على التنمية المستدامة للتكنولوجيا.

وقال بنجو إن هدف التقرير لم يكن “اقتراح طريقة معينة لتقييم الأنظمة أو أي شيء”. بقي المؤلفون بعيدًا عن إعطاء الأولوية لمخاطر معينة أو تقديم توصيات سياسية محددة. بدلاً من ذلك ، وضعوا ما يقوله الأدب العلمي على الذكاء الاصطناعي “بطريقة يمكن هضمها من قبل صانعي السياسة”.

وقال: “نحتاج إلى فهم الأنظمة التي نبنيها بشكل أفضل والمخاطر التي تأتي معها حتى نتمكن من اتخاذ هذه القرارات الأفضل في المستقبل”.

__

كاتب تكنولوجيا AP مات أوبراين في بروفيدنس ، رود آيلاند ساهم في هذا التقرير.

شاركها.
Exit mobile version