- تعمل الشركات على دمج تكنولوجيا الذكاء الاصطناعي التوليدية بسرعة لتعزيز الإنتاجية.
- ومع ذلك، يشعر الخبراء بالقلق من تأخر الجهود المبذولة لإدارة مخاطر الذكاء الاصطناعي.
- وقال أحد كبار شركاء مجموعة بوسطن كونسلتينج جروب إن جهود الذكاء الاصطناعي المسؤولة لا تتحرك “بالسرعة التي ينبغي أن تكون عليها”.
تتسابق الشركات لنشر تكنولوجيا الذكاء الاصطناعي التوليدية في عملها منذ عام 2015 إطلاق ChatGPT في عام 2022.
يقول المسؤولون التنفيذيون إنهم متحمسون بشأن كيفية تعزيز الذكاء الاصطناعي للإنتاجية، وتحليل البيانات، وتقليل العمل المزدحم.
وفقًا لتقرير اتجاهات العمل لعام 2024 الصادر عن Microsoft وLinkedIn، والذي شمل 31000 عامل بدوام كامل بين فبراير ومارس، يعتقد ما يقرب من أربعة من كل خمسة من قادة الأعمال أن شركاتهم بحاجة إلى اعتماد التكنولوجيا لتظل قادرة على المنافسة.
لكن اعتماد الذكاء الاصطناعي في مكان العمل ينطوي أيضًا على مخاطر، بما في ذلك الإضرار بالسمعة والإضرار المالي والقانوني. ويتمثل التحدي المتمثل في مكافحتها في كونها غامضة، ولا تزال العديد من الشركات تحاول فهم كيفية التعرف عليها وقياسها.
يجب أن تتضمن برامج الذكاء الاصطناعي التي يتم تشغيلها بشكل مسؤول استراتيجيات للحوكمة وخصوصية البيانات والأخلاق والثقة والسلامة، لكن الخبراء الذين يدرسون المخاطر يقولون إن البرامج لم تواكب الابتكار.
قال تاد روزلوند، العضو المنتدب والشريك الأول في مجموعة بوسطن الاستشارية، لموقع Business Insider، إن الجهود المبذولة لاستخدام الذكاء الاصطناعي بشكل مسؤول في مكان العمل لا تقترب من السرعة التي ينبغي أن تكون عليها. غالبًا ما تتطلب هذه البرامج قدرًا كبيرًا من الاستثمار وسنتين على الأقل لتنفيذها، وفقًا لمجموعة بوسطن الاستشارية.
يعد هذا استثمارًا كبيرًا والتزامًا بالوقت، ويبدو أن قادة الشركة أكثر تركيزًا بدلاً من ذلك على تخصيص الموارد لتطوير الذكاء الاصطناعي بسرعة بطريقة تعزز الإنتاجية.
“إن إنشاء قدرات جيدة لإدارة المخاطر يتطلب موارد وخبرات كبيرة، وهو أمر لا تستطيع جميع الشركات تحمله أو توفيره لها اليوم،” الباحث ومحلل السياسات نانجيرا سام أخبر معهد ماساتشوستس للتكنولوجيا سلون مانجمنت ريفيو. وأضافت أن “الطلب على خبراء الحوكمة والمخاطر في الذكاء الاصطناعي يفوق العرض”.
ويحتاج المستثمرون إلى لعب دور أكثر أهمية في تمويل الأدوات والموارد اللازمة لهذه البرامج نافرينا سينغ، مؤسس شركة Credo AI، وهي عبارة عن منصة حوكمة تساعد الشركات على الامتثال للوائح الذكاء الاصطناعي. يصل تمويل الشركات الناشئة في مجال الذكاء الاصطناعي إلى 25.2 مليار دولار في عام 2023، وفقًا لـ أ تقرير من معهد ستانفورد للذكاء الاصطناعي المرتكز على الإنسانلكن من غير الواضح مقدار المبلغ الذي ذهبت إليه الشركات التي تركز على الذكاء الاصطناعي المسؤول.
وقال سينغ لموقع Business Insider عبر البريد الإلكتروني: “تعكس بيئة رأس المال الاستثماري أيضًا تركيزًا غير متناسب على ابتكار الذكاء الاصطناعي على حوكمة الذكاء الاصطناعي”. “لتبني الذكاء الاصطناعي على نطاق واسع وبسرعة وبشكل مسؤول، يجب التركيز بشكل متساوٍ على الأطر الأخلاقية والبنية التحتية والأدوات لضمان تكامل الذكاء الاصطناعي المستدام والمسؤول في جميع القطاعات.”
وتجري حاليا جهود تشريعية لسد هذه الفجوة. في شهر مارس، وافق الاتحاد الأوروبي على قانون الذكاء الاصطناعي, الذي يقسم مخاطر تطبيقات الذكاء الاصطناعي إلى ثلاث فئات ويحظر تلك التي تنطوي على مخاطر غير مقبولة. وفي الوقت نفسه، وقعت إدارة بايدن أمرًا تنفيذيًا شاملاً في أكتوبر يطالب بمزيد من الشفافية من شركات التكنولوجيا الكبرى التي تطور نماذج الذكاء الاصطناعي.
ولكن مع وتيرة الابتكار في مجال الذكاء الاصطناعي، قد لا تكون اللوائح الحكومية كافية في الوقت الحالي لضمان حماية الشركات لنفسها.
وقال سينغ: “نحن نخاطر بعجز كبير في المسؤولية يمكن أن يوقف مبادرات الذكاء الاصطناعي قبل أن تصل إلى الإنتاج، أو ما هو أسوأ من ذلك، يؤدي إلى إخفاقات تؤدي إلى مخاطر مجتمعية غير مقصودة، وضرر بالسمعة، وتعقيدات تنظيمية إذا تم إدخالها في الإنتاج”.
