ربما يكون OpenAI قد انتهك شروط وأحكام YouTube لتدريب نموذج تحويل النص إلى فيديو Sora، كما يقول الرئيس التنفيذي لشركة Google، ساندر بيتشاي.
“لذلك شعرت أنهم انتهكوا الشروط والأحكام الخاصة بك، أو ربما، أو إذا فعلوا ذلك، فلن يكون ذلك مناسبًا؟” سأل نيلاي باتيل، رئيس تحرير موقع The Verge، بيتشاي في مقابلة نشرت يوم الاثنين.
أجاب بيتشاي: “هذا صحيح. نعم، هذا صحيح”.
في وقت سابق من المقابلة، كشف بيتشاي أن يوتيوب لا يزال “يتابع ويحاول أن يفهم” كيف قامت OpenAI بتدريب سورا.
وقال بيتشاي: “انظر، نحن لا نعرف التفاصيل”. “لدينا شروط وأحكام، ونتوقع من الأشخاص الالتزام بهذه الشروط والأحكام عند إنشاء منتج، وهذا ما شعرت به حيال ذلك.”
في فبراير، أبهر صانع ChatGPT صناعة الذكاء الاصطناعي عندما قدم Sora لأول مرة للعالم. النموذج، الذي يأخذ اسمه من الكلمة اليابانية التي تعني “السماء”، قادر على إنتاج مقاطع فيديو عالية الجودة بمطالبة نصية بسيطة.
لكن OpenAI ظلت خجولة بشأن البيانات التي استخدمتها للتدريب الخجول. وقالت ميرا موراتي، مديرة التكنولوجيا في الشركة، لجوانا ستيرن من صحيفة وول ستريت جورنال في مارس/آذار، إنها “استخدمت البيانات المتاحة للجمهور والبيانات المرخصة”.
ومع ذلك، قدم موراتي إجابة أقل تحديدًا عندما سأل ستيرن عما إذا كانت شركة OpenAI قد أخذت بيانات من منصات مثل YouTube وInstagram.
أجاب موراتي: “لست متأكدًا من ذلك في الواقع”. “كما تعلمون، إذا كانت متاحة للاستخدام العام، فقد تكون هناك بيانات. لكنني لست متأكدا. ولست واثقا من ذلك”.
في الشهر الماضي، أخبر الرئيس التنفيذي لموقع YouTube، نيل موهان، إميلي تشانغ من بلومبرج أنه على الرغم من أنه لا يعرف ما إذا كانت OpenAI قد قامت بتدريب Sora على مقاطع فيديو YouTube، إلا أنه سيكون “انتهاكًا واضحًا” لشروط استخدام النظام الأساسي إذا فعلوا ذلك.
وقال موهان: “من وجهة نظر المبدع، عندما يقوم المبدع بتحميل عمله الشاق إلى منصتنا، تكون لديه توقعات معينة. وأحد هذه التوقعات هو الالتزام بشروط الخدمة”.
وتابع: “إنه لا يسمح بتنزيل أشياء مثل النصوص أو مقاطع الفيديو، وهذا انتهاك واضح لشروط الخدمة الخاصة بنا”. “هذه هي قواعد الطريق فيما يتعلق بالمحتوى الموجود على منصتنا.”
لم يستجب ممثلو Google وOpenAI على الفور لطلبات التعليق من BI التي تم إرسالها خارج ساعات العمل العادية.
تؤكد مشكلات موقع OpenAI على YouTube التحديات التي تواجهها شركات الذكاء الاصطناعي المتعطشة للبيانات التي تحاول تدريب نماذجها. وفي أكتوبر/تشرين الأول، قالت شركة Anthropic الناشئة للذكاء الاصطناعي والمدعومة من أمازون، إنها تستخدم البيانات التي أنتجتها بنفسها لتدريب نماذجها.
ولن تكون هذه هي المرة الوحيدة التي أثارت فيها OpenAI جدلاً حول كيفية عملها مع المحتوى والمبدعين.
قالت الممثلة سكارليت جوهانسون، يوم الاثنين، إنها شعرت “بالصدمة” و”الغضب” بعد أن بدا المساعد الافتراضي الجديد لشركة OpenAI “مشابهًا بشكل مخيف” لها.
وقالت جوهانسون في بيان إنها رفضت عرض الرئيس التنفيذي لشركة OpenAI Sam Altman للتعبير عن أحدث طراز GPT-4o.
النموذج، الذي تم إصداره الأسبوع الماضي، يتضمن العديد من الخيارات الصوتية. شعر العديد من مستخدمي وسائل التواصل الاجتماعي أن أحد الأصوات، المسمى “Sky”، بدا وكأنه روبوت محادثة يعمل بالذكاء الاصطناعي، والذي عبرت عنه جوهانسون في أغنية “Her” للمخرج سبايك جونز. قالت شركة OpenAI يوم الأحد إنها أوقفت إصدار “Sky’s” مؤقتًا.
وكتبت OpenAI في منشور على مدونة في نفس اليوم: “نعتقد أن أصوات الذكاء الاصطناعي لا ينبغي أن تحاكي عمدًا الصوت المميز لأحد المشاهير – صوت سكاي ليس تقليدًا لسكارليت جوهانسون ولكنه ينتمي إلى ممثلة محترفة مختلفة تستخدم صوتها الطبيعي”.

