سيول، كوريا الجنوبية (أ ف ب) – من المقرر أن تستضيف كوريا الجنوبية قمة مصغرة هذا الأسبوع حول مخاطر وتنظيم الذكاء الاصطناعي، في متابعة لبحث سلامة الذكاء الاصطناعي الافتتاحية اجتمع في بريطانيا العام الماضي واستقطب حشدًا متنوعًا من نجوم التكنولوجيا والباحثين والمسؤولين.

ويهدف التجمع في سيول إلى البناء على العمل الذي بدأ في اجتماع المملكة المتحدة بشأن كبح التهديدات التي تشكلها أنظمة الذكاء الاصطناعي المتطورة.

إليك ما تحتاج إلى معرفته حول قمة الذكاء الاصطناعي في سيول وقضايا سلامة الذكاء الاصطناعي.

ما هي الجهود الدولية التي تم بذلها بشأن سلامة الذكاء الاصطناعي؟

تعد قمة سيول واحدة من العديد من الجهود العالمية لإنشاء حواجز أمام التكنولوجيا سريعة التقدم والتي تعد بتغيير العديد من جوانب المجتمع، ولكنها أثارت أيضًا مخاوف بشأن المخاطر الجديدة على الحياة اليومية مثل التحيز الخوارزمي الذي يشوه نتائج البحث والتهديدات الوجودية المحتملة. إلى الإنسانية.

في قمة المملكة المتحدة التي عقدت في تشرين الثاني (نوفمبر) في قاعدة سرية سابقة لفك الشفرات في زمن الحرب في بلتشلي شمال لندن، اجتمع الباحثون والقادة الحكوميون والمسؤولون التنفيذيون في مجال التكنولوجيا وأعضاء مجموعات المجتمع المدني، والعديد منهم لديهم وجهات نظر متعارضة بشأن الذكاء الاصطناعي، في محادثات مغلقة. اختلط الرئيس التنفيذي لشركة Tesla Elon Musk والرئيس التنفيذي لشركة OpenAI Sam Altman مع سياسيين مثل رئيس الوزراء البريطاني ريشي سوناك.

ووقع مندوبون من أكثر من عشرين دولة، بما في ذلك الولايات المتحدة والصين، على إعلان بلتشلي، واتفقوا على العمل معا لاحتواء المخاطر “الكارثية” المحتملة التي يفرضها التقدم السريع في مجال الذكاء الاصطناعي.

في مارس، الجمعية العامة للأمم المتحدة وافقت على قرارها الأول بشأن الذكاء الاصطناعي، مما يدعم الجهود الدولية لضمان أن التكنولوجيا الجديدة القوية تعود بالنفع على جميع الدول، وتحترم حقوق الإنسان، وتكون “آمنة ومأمونة وجديرة بالثقة”.

مسبقا في هذا الشهر، الولايات المتحدة والصين عقدوا أول محادثات رفيعة المستوى حول الذكاء الاصطناعي في جنيف لمناقشة كيفية معالجة مخاطر التكنولوجيا سريعة التطور ووضع معايير مشتركة لإدارتها. هناك، أثار المسؤولون الأمريكيون مخاوف بشأن الصين “إساءة استخدام الذكاء الاصطناعي” في حين وبخ الممثلون الصينيون الولايات المتحدة بسبب “القيود والضغوط” على الذكاء الاصطناعي، وفقا لحكوماتهم.

ما الذي سيتم مناقشته في قمة سيول؟

وتستضيف حكومتا كوريا الجنوبية والمملكة المتحدة الاجتماع الذي سيعقد في الفترة من 21 إلى 22 مايو.

في اليوم الأول، الثلاثاء، التقى الرئيس الكوري الجنوبي يون سوك يول و سناك سوف يجتمع القادة افتراضيا. تمت دعوة عدد قليل من قادة الصناعة العالمية لتقديم تحديثات حول كيفية وفائهم بالالتزامات التي تم التعهد بها في قمة بلتشلي لضمان سلامة نماذج الذكاء الاصطناعي الخاصة بهم.

وفي اليوم الثاني، سيجتمع الوزراء الرقميون في اجتماع شخصي يستضيفه وزير العلوم الكوري الجنوبي لي جونغ هو ووزيرة التكنولوجيا البريطانية ميشيل دونيلان. وسيتبادل المشاركون أفضل الممارسات وخطط العمل الملموسة. وسيتبادلون أيضًا الأفكار حول كيفية حماية المجتمع من التأثيرات السلبية المحتملة للذكاء الاصطناعي على مجالات مثل استخدام الطاقة والعمال وانتشار المعلومات الخاطئة والمضللة، وفقًا للمنظمين.

أُطلق على الاجتماع اسم قمة افتراضية مصغرة، وهو بمثابة اجتماع مؤقت حتى تعقد باريس نسخة شخصية كاملة في وقت لاحق من هذا العام.

ومن المقرر أن يضم اجتماع الوزراء الرقمي ممثلين من دول مثل الولايات المتحدة والصين وألمانيا وفرنسا وإسبانيا وشركات بما في ذلك OpenAI، صانع ChatGPT، وGoogle، وMicrosoft، وAnthropic.

ما هو التقدم الذي أحرزته جهود السلامة في مجال الذكاء الاصطناعي؟

وكان الاتفاق الذي تم التوصل إليه في اجتماع المملكة المتحدة خفيفا من حيث التفاصيل ولم يقترح طريقة لتنظيم تطوير الذكاء الاصطناعي.

وجاءت الولايات المتحدة والصين إلى القمة الأخيرة. وقال لي سيونج يوب، الأستاذ في كلية الدراسات العليا لإدارة التكنولوجيا في جامعة كوريا في سيول، “لكن عندما ننظر إلى بعض المبادئ التي تم الإعلان عنها بعد الاجتماع، فإنها كانت مماثلة لما تم الإعلان عنه بالفعل بعد بعض اجتماعات الأمم المتحدة ومنظمة التعاون الاقتصادي والتنمية”. “لم يكن هناك شيء جديد.”

وقال إنه من المهم عقد قمة عالمية حول قضايا سلامة الذكاء الاصطناعي، ولكن سيكون من “الصعب للغاية” على جميع المشاركين التوصل إلى اتفاقات لأن كل دولة لديها مصالح مختلفة ومستويات مختلفة من تقنيات وصناعات الذكاء الاصطناعي المحلية.

يقام التجمع كما ميتا, OpenAI و جوجل طرح أحدث الإصدارات من نماذج الذكاء الاصطناعي الخاصة بهم.

تم تصميم قمة سلامة الذكاء الاصطناعي الأصلية لتكون مكانًا لطرح الحلول لما يسمى المخاطر الوجودية تطرحها أقوى “النماذج الأساسية” التي تدعم أنظمة الذكاء الاصطناعي للأغراض العامة مثل ChatGPT.

عالم الكمبيوتر الرائد يوشوا بنجيو، الملقب بواحد من ” عرابي الذكاء الاصطناعي“، تم اختياره في اجتماع المملكة المتحدة لقيادة لجنة خبراء مكلفة بصياغة تقرير عن حالة سلامة الذكاء الاصطناعي. ان النسخة المؤقتة حدد التقرير الذي صدر يوم الجمعة لإثراء المناقشات في سيول مجموعة من المخاطر التي يشكلها الذكاء الاصطناعي للأغراض العامة، بما في ذلك استخدامه الضار لزيادة “حجم وتعقيد” عمليات الاحتيال والاحتيال، أو زيادة انتشار المعلومات المضللة، أو إنشاء أسلحة بيولوجية جديدة.

وقال التقرير إن أنظمة الذكاء الاصطناعي المعطلة يمكن أن تنشر التحيز في مجالات مثل الرعاية الصحية والتوظيف والإقراض المالي، في حين أن قدرة التكنولوجيا على أتمتة مجموعة كبيرة من المهام تشكل أيضًا مخاطر نظامية على سوق العمل.

وتأمل كوريا الجنوبية في استغلال قمة سيول لأخذ زمام المبادرة في صياغة الحوكمة العالمية ومعايير الذكاء الاصطناعي. لكن بعض النقاد يقولون إن البلاد تفتقر إلى البنية التحتية للذكاء الاصطناعي المتقدمة بما يكفي للعب دور قيادي في قضايا الحكم هذه.

__

أفاد تشان من لندن.

شاركها.
Exit mobile version