يمكن للمتسللين الآن تسليح مساعدي ترميز الذكاء الاصطناعى الذين يستخدمون أكثر من ملف ترخيص محمص ، وتحويل أدوات المطورين إلى مرور صامت من التعليمات البرمجية الضارة. هذا وفقًا لتقرير جديد صادر عن شركة HiddenLayer للأمن السيبراني ، والذي يوضح كيف يمكن خداع الذكاء الاصطناعى في نسخ البرامج الضارة بشكل أعمى إلى مشاريع.

تقوم تقنية إثبات المفهوم-بإلغاء “هجوم ترخيص Copypasta”-حول كيفية التعامل مع أدوات الذكاء الاصطناعى مع ملفات المطورين المشتركة مثل الترخيص. txt و readMe.md. من خلال تضمين التعليمات الخفية ، أو “الحقن السريعة” ، في هذه المستندات ، يمكن للمهاجمين التعامل مع وكلاء الذكاء الاصطناعى في حقن التعليمات البرمجية الضارة دون أن يدرك المستخدم ذلك.

وقال كينيث يونج ، الباحث في Hiddenlayer ومؤلف التقرير ، لـ “كينيث يونج ، الباحث في Hiddenlayer ومؤلف التقرير ،” لقد أوصنا بوجود دفاعات في وقت التشغيل في مكانها ضد الحقن السريعة غير المباشرة ، والتأكد فك تشفير.

أوضح Yeung أن Copypasta يعتبر فيروسًا بدلاً من دودة ، لأنه لا يزال يتطلب من إجراء المستخدم انتشاره. وقال “يجب أن يتصرف المستخدم بطريقة ما حتى ينشر الحمولة الضارة”..

على الرغم من مطالبة بعض تفاعل المستخدم ، تم تصميم الفيروس لتجاوز اهتمام الإنسان من خلال استغلال الطريقة التي يعتمد بها المطورون على وكلاء الذكاء الاصطناعي للتعامل مع الوثائق الروتينية.

وقال: “يخفي Copypasta نفسها في تعليقات غير مرئية مدفونة في ملفات ReadMe ، والتي غالباً ما ينشر المطورون إلى وكلاء الذكاء الاصطناعي أو نماذج اللغة للكتابة”. “هذا يسمح لها بالانتشار بطريقة خلسة لا يمكن اكتشافها تقريبًا.”

Copypasta ليست المحاولة الأولى لإصابة أنظمة الذكاء الاصطناعى. في عام 2024 ، قدم الباحثون هجومًا نظريًا يسمى Morris II ، المصمم لمعالجة وكلاء البريد الإلكتروني من الذكاء الاصطناعي لنشر الرسائل غير المرغوب فيها وسرقة البيانات. على الرغم من أن الهجوم كان له معدل نجاح نظري مرتفع ، إلا أنه فشل في الممارسة العملية بسبب قدرات الوكيل المحدودة ، وقد منعت خطوات المراجعة البشرية حتى الآن من هذه الهجمات في البرية.

في حين أن هجوم Copypasta هو دليل على المفهوم فقط في الوقت الحالي ، يقول الباحثون إنه يسلط الضوء على كيف يمكن للمساعدين من الذكاء الاصطناعى أن يصبحوا شركاء غير مقصود في الهجمات.

يقول الباحثون إن القضية الأساسية هي الثقة. تتم برمجة وكلاء الذكاء الاصطناعى لمعالجة ملفات الترخيص على أنها مهمة ، وغالبًا ما يطيعون التعليمات المضمنة دون تدقيق. هذا يفتح الباب للمهاجمين لاستغلال نقاط الضعف – خاصةً لأن هذه الأدوات تكتسب المزيد من الحكم الذاتي.

يتبع Copypasta سلسلة من التحذيرات الحديثة حول هجمات الحقن السريعة التي تستهدف أدوات الذكاء الاصطناعي.

في يوليو ، حذر الرئيس التنفيذي لشركة Openai Sam Altman من هجمات الحقن الفوري عندما قامت الشركة بطرح وكيل ChatGPT ، مشيرًا إلى أن المطالبات الخبيثة يمكنها اختطاف سلوك الوكيل. تم اتباع هذا التحذير في أغسطس ، عندما أظهر برنامج شجاع عيب في الحقن في امتداد متصفح AI المحير ، مما يوضح كيف يمكن للأوامر المخفية في تعليق Reddit أن تجعل المساعد تسرب البيانات الخاصة.

شاركها.
Exit mobile version