أصدرت جوجل ورقة عمل جديدة تتعلق بالسياسة في الرابع من يونيو/حزيران بعنوان “الذكاء الاصطناعي التوليدي والخصوصية”، مؤكدة على الحاجة الماسة لحماية الخصوصية في تطوير ونشر تقنيات الذكاء الاصطناعي.

توضح الورقة، التي كتبتها المديرة العالمية لسياسة سلامة وأمان الخصوصية في Google، كيت تشارليت، نهج الشركة في تضمين ضمانات الخصوصية في منتجات الذكاء الاصطناعي منذ البداية.

وفقًا لتشارتليت:

“يتمتع الذكاء الاصطناعي بالقدرة على معالجة مجموعة واسعة من المهام، بدءًا من الأعمال الروتينية وحتى الاكتشافات الطبية الرائدة. ومع ذلك، لتسخير إمكاناته بالكامل، يجب علينا التأكد من تطوير الذكاء الاصطناعي مع توفير حماية قوية للخصوصية.

الخصوصية حسب التصميم

تحدد ورقة السياسة إطار عمل الخصوصية حسب التصميم الخاص بشركة Google، والذي يدمج ممارسات حماية البيانات طويلة الأمد وتدابير الشفافية وآليات التحكم في المستخدم في عملية تطوير الذكاء الاصطناعي. يهدف هذا النهج إلى التخفيف من المخاطر مثل التعرض غير المقصود للمعلومات الشخصية مع تمكين المستخدمين من التحكم بشكل أكبر في بياناتهم.

يعالج إطار عمل Google الأسئلة المهمة المتعلقة بتقليل البيانات والشفافية في الذكاء الاصطناعي. ويؤكد على أهمية تقليل استخدام البيانات الشخصية أثناء التدريب النموذجي والتأكد من أن أنظمة الذكاء الاصطناعي توفر شفافية ذات معنى حول كيفية عملها.

وتشدد الورقة أيضًا على الحاجة إلى تجارب الذكاء الاصطناعي المناسبة للعمر، خاصة للمراهقين، في مشهد رقمي سريع التطور.

بيانات شخصية

وفقًا للورقة البحثية، فإن تضمين البيانات الشخصية في تدريب الذكاء الاصطناعي يمكن أن يساعد في تقليل التحيز وتعزيز دقة النماذج من خلال تعليم الذكاء الاصطناعي فهم السياقات الثقافية المتنوعة. ومع ذلك، يجب أن يكون التركيز الأساسي لضمانات الخصوصية على مستوى التطبيق، حيث يكون خطر تسرب البيانات الشخصية أعلى.

لاحظت الورقة:

“يقدم الذكاء الاصطناعي التوليدي فرصًا كبيرة لتعزيز خصوصية المستخدم وتعزيز الدفاعات السيبرانية. يمكن لتقنيات تعزيز الخصوصية مثل البيانات الاصطناعية والخصوصية التفاضلية أن تقدم فوائد مجتمعية كبيرة دون المساس بالمعلومات الشخصية.

دعت جوجل إلى بذل جهود تعاونية عبر مجتمع الخصوصية لضمان أن تقنيات الذكاء الاصطناعي التوليدية تفيد المجتمع بشكل مسؤول. وقالت الشركة إنها ملتزمة بالعمل مع المنظمين وخبراء الصناعة وأصحاب المصلحة الآخرين لتحقيق التوازن بين حماية الخصوصية القوية والحقوق الأساسية والأهداف الاجتماعية.

وقالت جوجل إن ورقة السياسة الجديدة تتوافق مع مبادراتها المستمرة لتعزيز الحوار حول الذكاء الاصطناعي والخصوصية. إنه يعكس المشاركة الاستباقية للشركة مع صانعي السياسات لتعزيز الاستخدام المسؤول للذكاء الاصطناعي مع حماية خصوصية المستخدم.

شاركها.