بوسطن (AP) – حذر المدعي العام في ولاية ماساتشوستس يوم الثلاثاء من أنه يجب على مطوري وموردي ومستخدمي الذكاء الاصطناعي الالتزام بقوانين حماية المستهلك ومكافحة التمييز وخصوصية البيانات الحالية في الولاية.
وفي تقرير استشاري، أشارت المدعية العامة أندريا كامبل إلى ما وصفته بالزيادة الواسعة النطاق في استخدام الذكاء الاصطناعي وأنظمة اتخاذ القرار الخوارزمية من قبل الشركات، بما في ذلك التكنولوجيا التي تركز على المستهلكين.
تهدف هذه الاستشارة جزئيًا إلى التأكيد على أن قوانين حماية المستهلك ومكافحة التمييز وأمن البيانات الحالية في الدولة لا تزال تنطبق على التقنيات الناشئة، بما في ذلك أنظمة الذكاء الاصطناعي – على الرغم من تعقيد تلك الأنظمة – تمامًا كما تفعل في أي سياق آخر.
وقال كامبل في بيان: “ليس هناك شك في أن الذكاء الاصطناعي يحمل إمكانات هائلة ومثيرة لإفادة المجتمع وكومنولثنا بعدة طرق، بما في ذلك تعزيز الابتكار وتعزيز الكفاءة وتوفير التكاليف في السوق”.
وأضافت: “ومع ذلك، فإن هذه الفوائد لا تفوق الخطر الحقيقي للضرر الذي يمكن أن يسببه سكاننا، على سبيل المثال، أي تحيز ونقص في الشفافية داخل أنظمة الذكاء الاصطناعي”.
قال كامبل إن الإعلان الكاذب عن إمكانية استخدام أنظمة الذكاء الاصطناعي، وتوفير نظام ذكاء اصطناعي معيب، وتحريف موثوقية أو سلامة نظام الذكاء الاصطناعي ليست سوى بعض الإجراءات التي يمكن اعتبارها غير عادلة ومخادعة بموجب قوانين حماية المستهلك في الولاية.
تحريف محتوى الصوت أو الفيديو الخاص بشخص ما بغرض خداع شخص آخر للمشاركة في معاملة تجارية أو تقديم معلومات شخصية كما لو كان لشريك تجاري موثوق به – كما في حالة التزييف العميق أو استنساخ الصوت أو روبوتات الدردشة المستخدمة للمشاركة في الاحتيال – وأضافت أن هذا يمكن أن ينتهك أيضًا قانون الولاية.
الهدف، جزئيًا، هو المساعدة في تشجيع الشركات على التأكد من أن منتجاتها وخدماتها في مجال الذكاء الاصطناعي خالية من التحيز قبل دخولها في مجرى التجارة – بدلاً من مواجهة العواقب بعد ذلك.
ويقول المنظمون أيضًا إن الشركات يجب أن تكشف للمستهلكين عندما يتفاعلون مع الخوارزميات. وقد يؤدي الافتقار إلى الشفافية إلى تعارض مع قوانين حماية المستهلك.
قالت إليزابيث ماهوني من مجلس التكنولوجيا العالية في ماساتشوستس، الذي يدافع عن اقتصاد التكنولوجيا في الولاية، إنه نظرًا لاحتمال وجود بعض الالتباس حول كيفية تطبيق قواعد الولاية والقواعد الفيدرالية على استخدام الذكاء الاصطناعي، فمن الأهمية بمكان توضيح قانون الولاية بوضوح.
وقالت: “نعتقد أن وجود قواعد أساسية أمر مهم، وأن حماية المستهلكين وحماية البيانات عنصر أساسي في ذلك”.
تعترف كامبل في تقريرها الاستشاري بأن الذكاء الاصطناعي يحمل القدرة على المساعدة في تحقيق فوائد عظيمة للمجتمع حتى مع أنه ثبت أيضًا أنه يشكل مخاطر جسيمة على المستهلكين، بما في ذلك التحيز وانعدام الشفافية.
يعد المطورون والموردين بأن أنظمة وتقنيات الذكاء الاصطناعي الخاصة بهم دقيقة وعادلة وفعالة حتى عندما يزعمون أيضًا أن الذكاء الاصطناعي هو “صندوق أسود”، مما يعني أنهم لا يعرفون بالضبط كيف يعمل الذكاء الاصطناعي أو يولد النتائج، حسبما قالت في تقريرها الاستشاري. .
ويشير الاستشارة أيضًا إلى أن قوانين مكافحة التمييز في الولاية تحظر على مطوري الذكاء الاصطناعي ومورديه ومستخدميه استخدام التكنولوجيا التي تميز ضد الأفراد بناءً على خاصية محمية قانونًا – مثل التكنولوجيا التي تعتمد على مدخلات تمييزية أو تنتج نتائج تمييزية من شأنها أن تنتهك مبادئ الدولة. وقال كامبل إن قوانين الحقوق المدنية.
وأضافت أنه يجب أيضًا على مطوري وموردي ومستخدمي الذكاء الاصطناعي اتخاذ خطوات لحماية البيانات الشخصية التي تستخدمها أنظمة الذكاء الاصطناعي والامتثال لمتطلبات الإبلاغ عن خرق البيانات في الولاية.