كانت تكنولوجيا الروبوتات النشطة ــ الذكاء الاصطناعي التوليدي ــ قادرة على كتابة رسائل البريد الإلكتروني، وإنتاج التعليمات البرمجية، وتجسيد الرسوم البيانية في دقائق. وفجأة، بدت الأيام التي كان العمال فيها يطالعون صناديق البريد الإلكتروني الخاصة بهم ويصممون العروض التقديمية بعناية وكأنها من مخلفات الماضي.

وقد سارعت الشركات، التي أغرتها مكاسب الأرباح والإنتاجية، إلى تبني هذه التكنولوجيا. ووفقاً لمسح أجرته شركة ماكينزي آند كومباني الاستشارية في مايو/أيار الماضي، قالت 65% من أكثر من 1300 شركة أجرت عليها الدراسة إنها تستخدم الآن الذكاء الاصطناعي التوليدي بانتظام ــ وهو ضعف عدد الشركات التي تستخدمه في العام السابق.

ولكن مخاطر إساءة استخدام التكنولوجيا كبيرة. فالذكاء الاصطناعي التوليدي قد يسبب الهلوسة، وينشر معلومات مضللة، ويعزز التحيزات ضد الفئات المهمشة إذا لم تتم إدارته بشكل صحيح. ونظراً لاعتماد التكنولوجيا على كميات هائلة من البيانات الحساسة، فإن احتمالات حدوث خروقات للبيانات مرتفعة أيضاً. ولكن في أسوأ الأحوال، هناك خطر يتمثل في أن كلما أصبحت أكثر تعقيداً، كلما قل احتمال توافقها مع القيم الإنسانية.

وبالتالي، مع القوة العظيمة تأتي مسؤولية عظيمة، ويجب على الشركات التي تجني الأموال من الذكاء الاصطناعي التوليدي أن تضمن تنظيمه أيضًا.

وهنا يأتي دور مسؤول الأخلاقيات الرئيسي.

دور حاسم في عصر الذكاء الاصطناعي

ال تختلف تفاصيل الدور من شركة إلى أخرى، ولكن – على نطاق واسع – هم مسؤولون عن تحديد التأثير الذي قد يحدثه استخدام الشركة للذكاء الاصطناعي على المجتمع الأكبر، وفقًا لفار شانكار، كبير مسؤولي الذكاء الاصطناعي والخصوصية في Enzai، وهي منصة برمجيات لحوكمة الذكاء الاصطناعي والمخاطر والامتثال. “لذا، بعيدًا عن شركتك ونتائجك النهائية، كيف يؤثر ذلك على عملائك؟ كيف يؤثر على الأشخاص الآخرين في العالم؟ ثم كيف يؤثر على البيئة”، كما يقول. “ثم يأتي بعد ذلك “بناء برنامج يعمل على توحيد وقياس هذه الأسئلة في كل مرة تستخدم فيها الذكاء الاصطناعي”.

إنه دور يمنح خبراء السياسة والفلسفة، إلى جانب خبراء البرمجة، موطئ قدم في صناعة التكنولوجيا سريعة التغير. وغالبًا ما يأتي هذا الدور مع راتب سنوي ضخم يتراوح بين ستة أرقام.

ولكن في الوقت الحالي، لا تقوم الشركات بتوظيف الأشخاص في هذه الأدوار بالسرعة الكافية، وفقًا لستيف ميلز، كبير مسؤولي أخلاقيات الذكاء الاصطناعي في مجموعة بوسطن الاستشارية. وقال: “أعتقد أن هناك الكثير من الحديث عن المخاطر والمبادئ، ولكن هناك القليل من الإجراءات لتنفيذ ذلك داخل الشركات”.

مسؤولية على مستوى C-suite

وفقًا لميلز، يجب أن يتمتع الناجحون في هذا الدور بخبرة في أربعة مجالات. يجب أن يكون لديهم فهم تقني للذكاء الاصطناعي التوليدي، وخبرة في بناء المنتجات ونشرها، وفهم للقوانين واللوائح الرئيسية المتعلقة بالذكاء الاصطناعي، وخبرة كبيرة في التوظيف واتخاذ القرارات في المؤسسة.

وقال “في كثير من الأحيان، أرى الناس يضعون مديرين متوسطي المستوى في المسؤولية، وبينما قد يكون لديهم الخبرة والرغبة والشغف، فإنهم عادة لا يتمتعون بالقدرة على تغيير الأمور داخل المنظمة وحشد الفرق القانونية والتجارية والامتثالية معًا”. وأضاف أن كل شركة من شركات فورتشن 500 التي تستخدم الذكاء الاصطناعي على نطاق واسع تحتاج إلى تكليف مسؤول تنفيذي بالإشراف على برنامج ذكاء اصطناعي مسؤول.

قال شانكار، وهو محامٍ بالتدريب، إن الدور لا يتطلب أي خلفية تعليمية محددة. إن المؤهل الأكثر أهمية هو فهم بيانات الشركة. وهذا يعني أن يكون لديك القدرة على التعامل مع “التداعيات الأخلاقية للبيانات التي تجمعها وتستخدمها، ومن أين أتت، وأين كانت قبل أن تكون في مؤسستك، وما هي أنواع الموافقة التي لديك بشأنها”، كما قال.

وأشار إلى مثال مقدمي الرعاية الصحية الذين قد يخلدون التحيزات عن غير قصد إذا لم يكن لديهم فهم قوي لبياناتهم. وفي دراسة نشرت في مجلة ساينس، انتهى الأمر بالمستشفيات وشركات التأمين الصحي التي استخدمت خوارزمية لتحديد المرضى الذين قد يستفيدون من “إدارة الرعاية عالية المخاطر” إلى إعطاء الأولوية للمرضى البيض الأصحاء على المرضى السود الأكثر مرضًا. وهذا هو نوع الخطأ الفادح الذي يمكن لمسؤول الأخلاقيات أن يساعد الشركات على تجنبه.

التعاون بين الشركات والصناعات

ويجب على الأشخاص الذين يشغلون هذا المنصب أن يكونوا قادرين على التواصل بثقة مع مختلف أصحاب المصلحة.

وقالت كريستينا مونتجومري، نائب رئيس شركة IBM ومديرة الخصوصية والثقة ورئيسة مجلس أخلاقيات الذكاء الاصطناعي، لـ BI إن أيامها عادة ما تكون مليئة باجتماعات وفعاليات العملاء، إلى جانب مسؤوليات أخرى.

وقالت “لقد أمضيت الكثير من الوقت خارجيًا، وربما أكثر مؤخرًا، في التحدث في الفعاليات والتفاعل مع صناع السياسات وفي المجالس الخارجية لأنني أشعر أن لدينا فرصة كبيرة للتأثير وتحديد شكل المستقبل”.

إنها تجلس على الألواح كما تعمل في العديد من المنظمات الدولية مثل الرابطة الدولية لمحترفي الخصوصية، التي أطلقت مؤخرًا شهادة مهنية في حوكمة الذكاء الاصطناعي للأفراد الذين يرغبون في قيادة مجال أخلاقيات الذكاء الاصطناعي. كما تتواصل مع قادة الحكومات وغيرهم من كبار مسؤولي الأخلاقيات.

وقالت “أعتقد أنه من المهم للغاية أن نتحدث مع بعضنا البعض بشكل منتظم ونشارك أفضل الممارسات، ونحن نفعل الكثير من ذلك عبر الشركات”.

وتهدف إلى تطوير فهم أوسع لما يحدث على المستوى المجتمعي – وهو ما تراه مفتاحًا لهذا الدور.

وقالت “إن مخاوفي في الفضاء الذي نعيش فيه الآن تتلخص في عدم وجود توافق عالمي بين كل هذه القواعد، وما هو متوقع، وما هو صحيح وما هو خاطئ فيما يتعلق بما يتعين على الشركات الالتزام به. لا يمكننا العمل في عالم بهذه الطريقة. لذا فإن المحادثات بين الشركات والحكومات والمجالس الإدارية مهمة للغاية الآن”.

شاركها.
Exit mobile version