• أفادت التقارير أنه تم العثور على سوشير بالاجي، الباحث السابق في OpenAI، ميتًا في 26 نوفمبر في شقته.
  • كان بالاجي، البالغ من العمر 26 عامًا، باحثًا في OpenAI لمدة أربع سنوات وترك الشركة في أغسطس.
  • لقد اتهم صاحب العمل بانتهاك قانون حقوق الطبع والنشر من خلال نموذج ChatGPT الذي يحظى بشعبية كبيرة.

تم العثور على سوشير بالاجي، الباحث السابق في OpenAI لمدة أربع سنوات، ميتًا في شقته في سان فرانسيسكو في 26 نوفمبر، وفقًا لتقارير متعددة. كان عمره 26 عامًا.

وكان بالاجي قد انتقد مؤخرًا شركة OpenAI بشأن كيفية قيام الشركة الناشئة بجمع البيانات من الإنترنت لتدريب نماذج الذكاء الاصطناعي الخاصة بها. كانت إحدى وظائفه في OpenAI هي جمع هذه المعلومات لتطوير نموذج الشركة القوي GPT-4 AI، وقد أصبح قلقًا بشأن كيف يمكن أن يؤدي ذلك إلى تقويض كيفية إنشاء المحتوى ومشاركته على الإنترنت.

وقال متحدث باسم قسم شرطة سان فرانسيسكو لموقع Business Insider إنه “لم يتم العثور على أي دليل على وجود جريمة أثناء التحقيق الأولي”.

وقال ديفيد سيرانو سيويل، المدير التنفيذي لمكتب كبير الفاحصين الطبيين بالمدينة، لصحيفة سان خوسيه ميركوري نيوز: “تم تحديد طريقة الوفاة على أنها انتحار”. ولم يستجب المتحدث باسم مكتب الفحص الطبي بالمدينة على الفور لطلب التعليق من BI.

وقال متحدث باسم OpenAI في بيان لـ BI: “لقد شعرنا بالصدمة عندما علمنا بهذه الأخبار المحزنة للغاية اليوم وقلوبنا تتوجه إلى أحباء سوشير خلال هذا الوقت العصيب”.

في أكتوبر، نشر بلاجي مقالًا على موقعه الشخصي على الإنترنت أثار تساؤلات حول ما يعتبر “استخدامًا عادلاً” وما إذا كان يمكن تطبيقه على بيانات التدريب التي يستخدمها OpenAI في نموذج ChatGPT الذي يحظى بشعبية كبيرة.

كتب بالاجي: “في حين أن النماذج التوليدية نادرًا ما تنتج مخرجات مشابهة إلى حد كبير لأي من مدخلات التدريب الخاصة بها، فإن عملية تدريب النموذج التوليدي تتضمن عمل نسخ من البيانات المحمية بحقوق الطبع والنشر”. “إذا كانت هذه النسخ غير مصرح بها، فمن المحتمل أن يعتبر ذلك انتهاكًا لحقوق الطبع والنشر، اعتمادًا على ما إذا كان الاستخدام المحدد للنموذج مؤهلاً باعتباره “استخدامًا عادلاً” أم لا. ونظرًا لأن الاستخدام العادل يتم تحديده على أساس كل حالة على حدة، فلا يمكن الإدلاء ببيان عام حول متى يكون الذكاء الاصطناعي التوليدي مؤهلاً للاستخدام العادل.

جادل بالاجي في مقالته الشخصية بأن تدريب نماذج الذكاء الاصطناعي باستخدام كميات كبيرة من البيانات المنسوخة مجانًا من الإنترنت قد يؤدي إلى الإضرار بمجتمعات المعرفة عبر الإنترنت.

واستشهد بورقة بحثية تصف مثال Stack Overflow، وهو موقع ويب للأسئلة والأجوبة حول البرمجة شهد انخفاضًا كبيرًا في حركة المرور وتفاعل المستخدم بعد ظهور نماذج ChatGPT وAI مثل GPT-4.

تجيب نماذج اللغات الكبيرة وروبوتات الدردشة على أسئلة المستخدم مباشرة، لذلك تقل حاجة الأشخاص للذهاب إلى المصادر الأصلية للحصول على الإجابات الآن.

في حالة Stack Overflow، تجيب برامج الدردشة الآلية وLLMs على أسئلة البرمجة، لذلك يزور عدد أقل من الأشخاص Stack Overflow لطلب المساعدة من هذا المجتمع. وهذا بدوره يعني أن موقع الويب الخاص بالبرمجة يولد محتوى بشريًا جديدًا أقل.

وقد حذّر إيلون ماسك من ذلك، واصفًا هذه الظاهرة بـ “الموت على يد LLM”.

تواجه OpenAI دعاوى قضائية متعددة تتهم الشركة بانتهاك حقوق الطبع والنشر.

ورفعت صحيفة نيويورك تايمز دعوى قضائية ضد شركة OpenAI العام الماضي، متهمة الشركة الناشئة ومايكروسوفت “بالاستخدام غير القانوني لعمل صحيفة التايمز لإنشاء منتجات ذكاء اصطناعي تتنافس معها”.

وفي مقابلة مع صحيفة التايمز نُشرت في أكتوبر، قال بالاجي إن برامج الدردشة الآلية مثل ChatGPT تجرد القيمة التجارية لعمل الأشخاص وخدماتهم.

وقال للنشر: “هذا ليس نموذجًا مستدامًا لنظام الإنترنت البيئي ككل”.

وفي بيان لصحيفة التايمز حول اتهامات بالاجي، قال OpenAI: “نحن نبني نماذج الذكاء الاصطناعي الخاصة بنا باستخدام البيانات المتاحة للجمهور، بطريقة محمية بالاستخدام العادل والمبادئ ذات الصلة، ومدعومة بسوابق قانونية طويلة الأمد ومقبولة على نطاق واسع. نحن نعتبر هذا المبدأ بمثابة عادلة للمبدعين، وضرورية للمبتكرين، وحاسمة للقدرة التنافسية للولايات المتحدة.”

تم تسمية بالاجي لاحقًا في دعوى التايمز ضد OpenAI باعتباره “الوصي” أو الفرد الذي يحمل المستندات ذات الصلة بالقضية، وفقًا لرسالة تم تقديمها في 18 نوفمبر واطلعت عليها BI.

إذا كنت أنت أو أي شخص تعرفه تعاني من الاكتئاب أو كان لديك أفكار لإيذاء نفسك أو الانتحار، فاحصل على المساعدة. في الولايات المتحدة، اتصل أو أرسل رسالة نصية على الرقم 988 للوصول شريان الحياة للانتحار والأزمات، الذي يوفر دعمًا سريًا ومجانيًا على مدار الساعة طوال أيام الأسبوع للأشخاص الذين يعانون من ضائقة، بالإضافة إلى أفضل الممارسات للمحترفين والموارد للمساعدة في الوقاية من حالات الأزمات. المساعدة متاحة أيضًا من خلال خط نص الأزمة – فقط أرسل رسالة نصية “HOME” إلى الرقم 741741 الرابطة الدولية لمنع الانتحار يقدم الموارد لأولئك خارج الولايات المتحدة.