في شركة OpenAI، قد يأتي التهديد الأمني ​​من داخل المنزل. فقد نشرت الشركة مؤخرًا إعلانًا عن وظيفة لمحقق مخاطر داخلي فني “لتحصين مؤسستنا ضد التهديدات الأمنية الداخلية”.

وجاء في الإعلان أن واجبات الوظيفة تشمل تحليل الأنشطة الشاذة، واكتشاف التهديدات الداخلية والتخفيف منها، والعمل مع أقسام الموارد البشرية والقانونية “لإجراء تحقيقات في الأنشطة المشبوهة”.

وقال متحدث باسم شركة OpenAI إن الشركة لا تعلق على قوائم الوظائف.

لقد أصبحت شركة OpenAI بالفعل محور نقاش ساخن حول الذكاء الاصطناعي والأمن. فقد أثار موظفو شركة OpenAI والمشرعون الأمريكيون مخاوف بشأن ما إذا كانت الشركة تبذل ما يكفي من الجهد لضمان عدم استخدام تقنياتها القوية للتسبب في الأذى.

وفي الوقت نفسه، قالت شركة OpenAI إنها لاحظت محاولات جهات تابعة لدول من الصين وروسيا وإيران استخدام نماذج الذكاء الاصطناعي الخاصة بها في ما تسميه أعمالاً خبيثة. وتقول الشركة إنها عطلت هذه الأعمال وأغلقت الحسابات المرتبطة بالأطراف المعنية.

أصبحت شركة OpenAI نفسها هدفًا لجهات خبيثة في عام 2023 عندما اخترق المتسللون نظام المراسلة الداخلي الخاص بها، وهي الحادثة التي خرجت إلى النور بعد أن سرب شخصان معلومات لصحيفة نيويورك تايمز.

بالإضافة إلى مجموعات القراصنة والحكومات الاستبدادية، يبدو أن هذا الإعلان الوظيفي يشير إلى أن OpenAI تشعر بالقلق بشأن التهديدات التي تنشأ من موظفيها، على الرغم من أنه من غير الواضح بالضبط ما هو نوع التهديد الذي تبحث عنه OpenAI.

ومن بين الاحتمالات أن الشركة تسعى إلى حماية الأسرار التجارية التي تدعم تكنولوجيتها. ويشير المنشور إلى أن تعيين شركة OpenAI لمحقق مخاطر داخلي هو جزء من الالتزامات الطوعية بشأن سلامة الذكاء الاصطناعي التي قدمتها للبيت الأبيض، وكان أحدها الاستثمار في “ضمانات التهديد الداخلي لحماية أوزان النماذج الملكية وغير المعلنة”.

في رسالة مفتوحة في يونيو/حزيران الماضي، قال موظفون حاليون وسابقون في شركة OpenAI إنهم يشعرون بأنهم ممنوعون من التعبير عن مخاوفهم بشأن سلامة الذكاء الاصطناعي. ودعت الرسالة شركة OpenAI إلى ضمان “الحق في تحذير” الجمهور من مخاطر منتجات OpenAI. ومن غير الواضح ما إذا كان هذا النوع من الإبلاغ عن المخالفات سيخضع لـ”ضوابط منع فقدان البيانات” التي سيكون محقق المخاطر مسؤولاً عن تنفيذها.