- وقال ميريديث ويتاكر ، رئيس Signal ، إن العميل من الذكاء الاصطناعي يشكل مخاطر أمنية خطيرة على المستخدمين.
- يشير Agentic AI إلى الروبوتات التي يمكن أن تفكر في المهام وأداء المهام للبشر دون مدخلاتهم.
- وقال ويتاكر إن امتلاك مهام كاملة للمستخدمين يعني منحها إمكانية الوصول إلى مواد البيانات.
يشك رئيس الإشارة ميريديث ويتاكر في العميل الذكاء الاصطناعي – أي عوامل الذكاء الاصطناعى الذين يمكنهم إكمال المهام أو اتخاذ القرارات دون مدخلات بشرية.
في حين أن بعض جبابرة التكنولوجيا قد وصفوا كيف يمكن للوكيل المفيدة للوكيل الذكاء الاصطناعي وإطلاق وكلاء الذكاء الاصطناعى لمحاولة المحاولة ، حذر ويتاكر من مخاطر الخصوصية التي تشكلها الوكلاء المستقلين أثناء التحدث في مؤتمر SXSW 2025 والمهرجانات في أوستن يوم الجمعة.
قال ويتاكر: “أعتقد أن هناك خطرًا حقيقيًا نواجهه ، جزئياً لأن ما نفعله إعطاء الكثير من التحكم في هذه الأنظمة التي ستحتاج إلى الوصول إلى البيانات. “
Whittaker هو رئيس مؤسسة تقنية الإشارة غير الربحية التي تدير تطبيق الإشارة المشفرة من طرف إلى طرف معروف بأمانها الرقمي.
يتم تسويق وكيل الذكاء الاصطناعى مثل “Bot Magic Genie” الذي يمكن أن يفكر في خطوات متعددة إلى الأمام وإكمال المهام للمستخدمين حتى “يمكن أن يجلس عقلك في جرة ، وأنت لا تفعل أيًا من ذلك بنفسك” ، قال ويتاكر.
على سبيل المثال ، قالت إن Agentic AI يمكن أن ينجز مهام مثل العثور على حفل موسيقي وحجز التذاكر وفتح تطبيق مثل Signal to Message Friends مع تفاصيل تذكرة الحفل. لكن في كل خطوة في هذه العملية ، سيقوم وكيل الذكاء الاصطناعى بالوصول إلى البيانات التي قد يرغب المستخدم في الحفاظ عليها الخاصة.
وقالت “ستحتاج إلى الوصول إلى متصفحنا ، وقدرة على قيادة ذلك. ستحتاج إلى معلومات بطاقة الائتمان الخاصة بنا لدفع ثمن التذاكر. ستحتاج إلى الوصول إلى التقويم الخاص بنا ، كل ما نقوم به ، كل شخص نلتقي به. سيحتاج إلى إمكانية الوصول إلى إشارة إلى أصدقائنا وإرسالها إلى أصدقائنا”. “يجب أن تكون قادرة على قيادة ذلك عبر نظامنا بأكمله باستخدام شيء يشبه إذن الجذر ، والوصول إلى كل واحدة من قواعد البيانات هذه ، وربما في حالة واضح لأنه لا يوجد نموذج للقيام بذلك المشفر.”
وأضاف Whittaker أن وكيل الذكاء الاصطناعى قوي بما يكفي للقيام بذلك من شأنه أن يعالج البيانات “بالتأكيد” من خلال إرسالها إلى خادم سحابة والعودة.
“لذلك هناك مشكلة عميقة مع الأمن والخصوصية التي تطارد هذا النوع من الضجيج حول العوامل ، وهذا يهدد في النهاية بكسر حاجز الدم في الدماغ بين طبقة التطبيق و OS وقالت إن الطبقة من خلال وضع كل هذه الخدمات المنفصلة ، وتخفيض بياناتها ، والقيام بأشياء مثل تقويض خصوصية رسائل الإشارة الخاصة بك “.
Whittaker ليس هو الوحيد القلق بشأن المخاطر التي يطرحها Agency AI.
أصدر Yoshua Bengio ، عالم الأبحاث الكندية التي تعتبر واحدة من عرابة الذكاء الاصطناعى ، تحذيرًا مشابهًا أثناء التحدث إلى Business Insider في المنتدى الاقتصادي العالمي في دافوس في يناير.
وقال بنجو في إشارة إلى “كل السيناريوهات الكارثية مع Agi أو superintligence الذكاء العام الاصطناعي، العتبة التي يمكن أن تتسبب فيها الآلات وكذلك البشر.
وقال بينيو: “يمكننا أن نتقدم بعلومنا الآمن والقادر على الذكاء الاصطناعي ، لكننا بحاجة إلى الاعتراف بالمخاطر ، ونفهم علمياً من أين تأتي ، ثم نفعل الاستثمار التكنولوجي لتحقيق ذلك قبل فوات الأوان ، ونحن نبني أشياء يمكن أن تدمرنا”.