لقد تحول أسبوع OpenAI الصعب إلى شهر صعب – ولا يبدو أنه مشكلة يمكن للرئيس التنفيذي للشركة، سام ألتمان، أن يحلها بسهولة.
في أحدث تطور لملحمة OpenAI-is-a-disaster، أعلنت مجموعة من موظفي OpenAI الحاليين والسابقين عن مخاوفهم بشأن الدوافع المالية للشركة والتزامها بالذكاء الاصطناعي المسؤول. وفي تقرير نشرته صحيفة نيويورك تايمز يوم الثلاثاء، وصفوا ثقافة الوعود الكاذبة حول السلامة.
“العالم ليس جاهزًا، ونحن لسنا مستعدين”، كتب دانييل كوكوتاجلو، الباحث السابق في OpenAI، في رسالة بريد إلكتروني يعلن فيها استقالته، وفقًا لتقرير التايمز. “أنا قلق من أننا نسارع إلى الأمام بغض النظر عن تصرفاتنا وتبريرها.”
وفي يوم الثلاثاء أيضًا، نشر المبلغون عن المخالفات، جنبًا إلى جنب مع المطلعين على الذكاء الاصطناعي، رسالة مفتوحة تطالب بالتغيير في الصناعة. وتدعو المجموعة شركات الذكاء الاصطناعي إلى الالتزام بثقافة النقد المفتوح والتعهد بعدم الانتقام من أولئك الذين يعربون عن مخاوفهم.
على الرغم من أن الرسالة ليست موجهة على وجه التحديد إلى OpenAI، إلا أنها تغريدة فرعية واضحة جدًا وتطور ضار آخر لشركة حصلت على ما يكفي من الزيارات في الأسبوعين الماضيين.
في بيان لموقع Business Insider، أكد متحدث باسم OpenAI التزام الشركة بالسلامة، وسلط الضوء على “الخط الساخن المجهول للنزاهة” للموظفين للتعبير عن مخاوفهم ولجنة السلامة والأمن بالشركة.
وقالوا عبر البريد الإلكتروني: “نحن فخورون بسجلنا الحافل في توفير أنظمة الذكاء الاصطناعي الأكثر قدرة والأكثر أمانًا ونؤمن بنهجنا العلمي لمعالجة المخاطر”. “نحن نتفق على أن النقاش الدقيق أمر بالغ الأهمية نظرا لأهمية هذه التكنولوجيا وسنواصل التعامل مع الحكومات والمجتمع المدني والمجتمعات الأخرى في جميع أنحاء العالم.”
السلامة الثانية (أو الثالثة)
أحد المواضيع الشائعة للشكاوى هو أن السلامة ليست في المقام الأول في OpenAI، بل النمو والأرباح.
وفي عام 2019، تحولت الشركة من منظمة غير ربحية مخصصة للتكنولوجيا الآمنة إلى منظمة ذات ربح محدد تبلغ قيمتها 86 مليار دولار. والآن يفكر ألتمان في جعله أداة عادية قديمة للرأسمالية تهدف إلى الربح.
وهذا يضع السلامة في مرتبة أدنى في قائمة الأولويات، وفقًا لأعضاء مجلس الإدارة والموظفين السابقين.
وكتب عضوا مجلس الإدارة السابقان، هيلين تونر وتاشا مكولي، في مقال افتتاحي بمجلة إيكونوميست الشهر الماضي، يدعوان إلى الرقابة الخارجية على شركات الذكاء الاصطناعي: “بناء على خبرتنا، نعتقد أن الحكم الذاتي لا يمكنه الصمود بشكل موثوق في ضغوط حوافز الربح”. وصوت تونر وماكولي لصالح الإطاحة بألتمان العام الماضي. (في مقال افتتاحي للرد، دافع أعضاء مجلس إدارة OpenAI الحاليون، بريت تايلور ولاري سامرز، عن ألتمان ومعايير السلامة الخاصة بالشركة).
يقول بعض المطلعين إن حوافز الربح هذه وضعت النمو في المقدمة والمركز، حيث تتسابق شركة OpenAI مع شركات الذكاء الاصطناعي الأخرى لبناء أشكال أكثر تقدمًا من التكنولوجيا – وإطلاق تلك المنتجات قبل أن يعتقد بعض الناس أنها جاهزة لتسليط الضوء.
ووفقاً لمقابلة أجراها تونر الأسبوع الماضي، فإن ألتمان كان يكذب بشكل روتيني ويحجب المعلومات عن مجلس الإدارة، بما في ذلك المعلومات المتعلقة بعمليات السلامة. وقالت إن مجلس الإدارة لم يكن على علم بإصدار ChatGPT في نوفمبر 2023، واكتشف أنه تم نشره على تويتر. (لم تنكر الشركة ذلك صراحةً، لكنها قالت في بيان لها إنها “تشعر بخيبة أمل لأن السيدة تونر تواصل إعادة النظر في هذه القضايا.”)
وقال الباحث السابق كوكوتاجلو لصحيفة التايمز إن مايكروسوفت بدأت في اختبار محرك البحث Bing بنسخة غير منشورة من GPT، وهي خطوة لم يوافق عليها مجلس السلامة في OpenAI. (ونفت مايكروسوفت حدوث ذلك، وفقًا لصحيفة نيويورك تايمز).
تعكس هذه المخاوف مخاوف جان لايكي الذي غادر مؤخرًا، والذي قاد فريق المحاذاة الفائقة للشركة مع كبير العلماء إيليا سوتسكيفر، وهو منشق آخر مؤخرًا. شهد الفريق، المخصص لدراسة المخاطر التي يشكلها الذكاء الاصطناعي الفائق على البشرية، عددًا من حالات المغادرة خلال الأشهر الأخيرة. وتم حلها عندما غادر قادتها، على الرغم من أن الشركة شكلت منذ ذلك الحين لجنة جديدة للسلامة.
وكتب لايكي في سلسلة من منشوراته على وسائل التواصل الاجتماعي حول رحيله: “على مدى السنوات الماضية، تراجعت ثقافة وعمليات السلامة إلى المنتجات اللامعة”. “لقد كنت أختلف مع قيادة OpenAI حول الأولويات الأساسية للشركة لبعض الوقت، حتى وصلنا أخيرًا إلى نقطة الانهيار.”
وتزداد هذه المخاوف مع اقتراب الشركة من الذكاء الاصطناعي العام، أو التكنولوجيا القادرة على التعامل مع كل السلوكيات البشرية. يقول العديد من الخبراء إن الذكاء الاصطناعي العام يزيد من احتمالية الموت، وهو مصطلح غريب ومحبط لاحتمال تدمير الذكاء الاصطناعي للبشرية.
لنقول الأمر بصراحة، كما قال ستيوارت راسل، الباحث الرائد في مجال الذكاء الاصطناعي، لمجلة BI الشهر الماضي: “حتى الأشخاص الذين يطورون التكنولوجيا يقولون إن هناك فرصة لانقراض الإنسان. ما الذي أعطاهم الحق في لعب الروليت الروسية مع أطفال الجميع؟”
ممثل من الدرجة الأولى و NDAs
من المحتمل أنك لم تكن تمتلك بطاقة البنغو لعام 2024 الخاصة بك التي ستواجه بها Black Widow أحد عمالقة وادي السيليكون، ولكن ها نحن ذا.
على مدى الأسابيع القليلة الماضية، واجهت الشركة بعض الأعداء غير المتوقعين الذين لديهم مخاوف تتجاوز السلامة، بما في ذلك سكارليت جوهانسون.
في الشهر الماضي، تقدمت الممثلة بمحاماة وكتبت بيانًا لاذعًا حول OpenAI بعد أن أطلقت نموذجًا جديدًا للذكاء الاصطناعي بصوت يشبه صوتها بشكل مخيف. وبينما تصر الشركة على أنها لم تسعى إلى انتحال شخصية جوهانسون، فإن أوجه التشابه لا يمكن إنكارها – لا سيما بالنظر إلى حقيقة أن ألتمان غردت بكلمة “هي” في وقت قريب من الإعلان عن المنتج، في إشارة على ما يبدو إلى فيلم جوهانسون لعام 2013 الذي تلعب فيه دور شخصية افتراضية تعمل بالذكاء الاصطناعي. مساعد. (تنبيه المفسد: الفيلم ليس مظهرًا جيدًا تمامًا للتكنولوجيا.)
وقالت جوهانسون عن النموذج: “لقد شعرت بالصدمة والغضب وعدم التصديق لأن السيد ألتمان سيتبع صوتًا يبدو مشابهًا بشكل مخيف للغاية”، مضيفة أنها رفضت عروضًا متعددة من ألتمان لتوفير صوت لـ OpenAI.
كان دفاع الشركة، بشكل أو بآخر، هو أن قيادتها لم تتواصل بشكل صحيح وتعاملت مع الأمر بطريقة خرقاء – وهو أمر غير مريح بالنظر إلى أن الشركة تتعامل مع بعض أقوى التقنيات في العالم.
ساءت الأمور عندما تم نشر تقرير ضار حول ثقافة الشركة المتمثلة في خنق الانتقادات من خلال اتفاقيات عدم الإفشاء المقيدة وغير العادية. الموظفون السابقون الذين تركوا الشركة دون التوقيع على اتفاقية عدم الإفصاح يمكن أن يخسروا الأسهم المكتسبة – التي تبلغ قيمتها الملايين بالنسبة للبعض. مثل هذه الاتفاقية لم يسمع بها من قبل في عالم التكنولوجيا.
ورد ألتمان على هذه الادعاءات في تغريدة: “هذا الأمر يقع على عاتقي، وهي إحدى المرات القليلة التي شعرت فيها بالحرج الشديد أثناء تشغيل openai؛ لم أكن أعلم أن هذا كان يحدث، وكان ينبغي عليّ أن أفعل ذلك”.
ولكن بعد أيام تم القبض عليه والبيضة على وجهه عندما ظهر تقرير يشير على ما يبدو إلى أن ألتمان كان على علم باتفاقيات عدم الإفشاء طوال الوقت.
وكما علم ألتمان، عندما يهطل المطر، يتساقط.
لا مزيد من الفارس الأبيض
لكن أمطار مايو لم تجلب زهور يونيو.
مثل العديد من الصواريخ التكنولوجية التي سبقتها، فإن OpenAI مرادف لمؤسسها المشارك ورئيسها التنفيذي سام ألتمان – الذي، حتى وقت قريب، كان يُنظر إليه على أنه عاقل خيري لديه رؤية لعالم أفضل.
ولكن مع استمرار تدهور تصور الشركة، فإن تصور قائدها يتدهور أيضًا.
وفي وقت سابق من هذا العام، بدأت نخبة رأس المال الاستثماري في الانقلاب على ألتمان، والآن ربما يحذو عامة الناس حذوهم.
حادثة سكارليت جوهانسون جعلته يبدو غير كفء، وارتباك NDA جعله يبدو وكأنه ثعبان إلى حد ما، وتركته المخاوف المتعلقة بالسلامة يبدو وكأنه عبقري شرير.
وفي الآونة الأخيرة، نشرت صحيفة وول ستريت جورنال يوم الاثنين بعض المعاملات التجارية المشكوك فيها التي قام بها ألتمان.
على الرغم من أنه لا يستفيد بشكل مباشر من OpenAI – فهو لا يملك أي حصة في الشركة، وراتبه البالغ 65 ألف دولار هو قطرة في دلو مقارنة بصافي ثروته البالغة مليار دولار – إلا أن تضارب المصالح كبير. وذكرت الصحيفة أن لديه استثمارات شخصية في العديد من الشركات التي تتعامل معها شركة OpenAI.
فهو يمتلك أسهمًا في Reddit، على سبيل المثال، والتي وقعت مؤخرًا صفقة مع OpenAI. كان العميل الأول لشركة Helion الناشئة في مجال الطاقة النووية، والتي يعد ألتمان مستثمرًا رئيسيًا فيها، هو شركة Microsoft، الشريك الأكبر لشركة OpenAI. (قال ألتمان وOpenAI إنه تنحى عن هذه الصفقات).
في مواجهة طوفان التغطية الإعلامية الضارة، حاولت الشركة ورئيسها السيطرة على الضرر: أعلن ألتمان أنه كان يوقع على تعهد العطاء، وهو وعد بالتبرع بمعظم ثروته، وتفيد التقارير أن الشركة قد أبرمت صفقة كبيرة مع تفاحة.
لكن بعض الأخبار الإيجابية لن تكون كافية لإزالة الفوضى التي يواجهها ألتمان. لقد حان الوقت ليأخذ دلوًا وممسحة ويبدأ العمل