روما (أ ف ب) – قالت هيئة حماية البيانات الإيطالية يوم الجمعة إنها غرمت شركة OpenAI مبلغ 15 مليون يورو (15.6 مليون دولار) بعد الانتهاء من تحقيق في جمع البيانات الشخصية بواسطة برنامج الدردشة الشهير ChatGPT التابع لشركة الذكاء الاصطناعي الأمريكية.

وقالت هيئة مراقبة الخصوصية في البلاد، المعروفة باسم Garante التحقيق فيها أظهر أن OpenAI عالجت البيانات الشخصية للمستخدمين لتدريب ChatGPT “دون وجود أساس قانوني مناسب وانتهكت مبدأ الشفافية والتزامات المعلومات ذات الصلة تجاه المستخدمين”.

ووصفت OpenAI القرار بأنه “غير متناسب” وقالت إنها ستستأنف.

“عندما أمرتنا Garante بالتوقف عن تقديم ChatGPT في إيطاليا في عام 2023وقال متحدث باسم OpenAI يوم الجمعة في بيان أرسل عبر البريد الإلكتروني: “لقد عملنا معهم لإعادته بعد شهر”. “لقد اعترفوا منذ ذلك الحين بنهجنا الرائد في الصناعة لحماية الخصوصية في الذكاء الاصطناعي، ومع ذلك فإن هذه الغرامة تعادل ما يقرب من 20 ضعف الإيرادات التي حققناها في إيطاليا خلال الفترة ذات الصلة.”

وأضافت OpenAI، مع ذلك، أنها تظل “ملتزمة بالعمل مع سلطات الخصوصية في جميع أنحاء العالم لتقديم ذكاء اصطناعي مفيد يحترم حقوق الخصوصية”.

وقالت الهيئة الرقابية إن التحقيق، الذي بدأ العام الماضي، وجد أيضًا أن OpenAI لم توفر “نظامًا مناسبًا للتحقق من العمر” لمنع المستخدمين الذين تقل أعمارهم عن 13 عامًا من التعرض لمحتوى غير مناسب تم إنشاؤه بواسطة الذكاء الاصطناعي.

كما أمرت السلطات الإيطالية OpenAI بإطلاق حملة مدتها ستة أشهر على وسائل الإعلام الإيطالية المختلفة لرفع مستوى الوعي العام حول ChatGPT، وتحديدًا فيما يتعلق بجمع البيانات.

لقد أثارت الشعبية المتزايدة لأنظمة الذكاء الاصطناعي التوليدي مثل ChatGPT تدقيقًا من جانب المنظمين على جانبي المحيط الأطلسي.

المنظمون في الولايات المتحدة و أوروبا لقد قامت شركة OpenAI بدراسة شركة OpenAI وغيرها من الشركات التي لعبت دورًا رئيسيًا في طفرة الذكاء الاصطناعي، في حين كانت الحكومات في جميع أنحاء العالم تضع قواعد للحماية من المخاطر التي تشكلها أنظمة الذكاء الاصطناعي، بقيادة الاتحاد الأوروبي. قانون الذكاء الاصطناعي، كتاب قواعد شامل للذكاء الاصطناعي.

___

ساهم في هذا التقرير كاتب الأعمال في وكالة أسوشييتد برس كلفن تشان في لندن

شاركها.