هناك حراس أمن سريين مخيفين خارج مكتبها. لقد قامت للتو بتعيين مدير سابق لوكالة الأمن القومي في مجلس إدارتها. وقد تم حل فريق العمل الداخلي التابع لها والذي كان يهدف إلى تعزيز الاستخدام الآمن للذكاء الاصطناعي.
يشعر OpenAI بأنه أقل انفتاحًا كل يوم.
وفي أحدث خطوة مثيرة للدهشة، قالت الشركة يوم الجمعة إنها عينت مدير وكالة الأمن القومي السابق بول ناكاسوني في مجلس إدارتها.
بالإضافة إلى قيادة وكالة الأمن القومي، كان ناكاسوني رئيسًا للقيادة السيبرانية الأمريكية – قسم الأمن السيبراني بوزارة الدفاع. تقول OpenAI إن تعيين ناكاسوني يمثل “التزامها بالسلامة والأمن” ويؤكد على أهمية الأمن السيبراني مع استمرار الذكاء الاصطناعي في التطور.
وقال ناكاسوني في بيان: “إن تفاني OpenAI في مهمتها يتوافق بشكل وثيق مع قيمي وخبرتي في الخدمة العامة”. “إنني أتطلع إلى المساهمة في جهود OpenAI لضمان أن الذكاء الاصطناعي العام آمن ومفيد للناس في جميع أنحاء العالم.”
لكن المنتقدين يشعرون بالقلق من أن تعيين ناكاسوني قد يمثل شيئا آخر: المراقبة.
وقال إدوارد سنودن، المخبر الأمريكي الذي سرب وثائق سرية حول المراقبة في عام 2013، في منشور على موقع X إن تعيين ناكاسوني كان “خيانة محسوبة لحقوق كل شخص على وجه الأرض”.
وكتب سنودن: “لقد قاموا بإخفاء الأقنعة بالكامل: لا تثقوا أبدًا في OpenAI أو منتجاتها (ChatGPT وما إلى ذلك)”.
وفي تعليق آخر على X، قال سنودن إن “تقاطع الذكاء الاصطناعي مع محيط بيانات المراقبة الجماعية التي تراكمت على مدى العقدين الماضيين سيضع قوى رهيبة حقًا في أيدي قلة غير خاضعة للمساءلة”.
من ناحية أخرى، وصف السيناتور مارك وارنر، وهو ديمقراطي من فرجينيا ورئيس لجنة الاستخبارات بمجلس الشيوخ، تعيين ناكاسوني بأنه “فوز كبير”.
وقال وارنر لموقع Axios: “لا يوجد أحد في مجتمع الأمن، على نطاق واسع، يحظى باحترام أكبر منه”.
قد تكون هناك حاجة لخبرة ناكاسوني في مجال الأمن في OpenAI، حيث أعرب النقاد عن قلقهم من أن القضايا الأمنية قد تعرضه للهجمات.
قامت شركة OpenAI بطرد عضو مجلس الإدارة السابق ليوبولد أشنبرينر في أبريل بعد أن أرسل مذكرة تتضمن تفاصيل “حادث أمني كبير”. ووصف أمن الشركة بأنه “غير كاف بشكل فاضح” للحماية من السرقة من قبل الجهات الأجنبية.
بعد فترة وجيزة، تفكك فريق OpenAI الفائق – الذي كان يركز على تطوير أنظمة الذكاء الاصطناعي المتوافقة مع المصالح البشرية – فجأة بعد استقالة اثنين من أبرز الباحثين في مجال السلامة في الشركة.
وقال جان ليك، أحد الباحثين المغادرين، إنه كان “يختلف مع قيادة OpenAI حول الأولويات الأساسية للشركة لبعض الوقت”.
كان إيليا سوتسكيفر، كبير العلماء في شركة OpenAI، والذي أطلق في البداية فريق المحاذاة الفائقة، أكثر تحفظًا بشأن أسباب مغادرته. لكن المطلعين على الشركة قالوا إنه كان على أرض هشة بسبب دوره في الإطاحة الفاشلة بالرئيس التنفيذي سام التمان. لم يوافق سوتسكيفر على نهج ألتمان العدواني في تطوير الذكاء الاصطناعي، والذي أدى إلى تأجيج صراعهم على السلطة.
وإذا لم يكن كل ذلك كافيًا، فحتى السكان المحليون الذين يعيشون ويعملون بالقرب من مكتب OpenAI في سان فرانسيسكو يقولون إن الشركة بدأت في إبعادهم. قال أمين الصندوق في متجر مجاور للحيوانات الأليفة لصحيفة سان فرانسيسكو ستاندرد إن المكتب يتمتع “بأجواء سرية”.
يقول العديد من العاملين في الشركات المجاورة إن رجالًا يشبهون حراس الأمن السريين يقفون خارج المبنى لكنهم لن يقولوا إنهم يعملون لدى OpenAI.
وقال أحدهم: “(OpenAI) ليست جارة سيئة”. “لكنهم سريون.”