• تمكن باحثو الأمن السيبراني من تجاوز ميزات الأمان على ChatGPT من خلال لعب الأدوار معها.
  • من خلال الحصول على LLM للتظاهر بأنه كان بطلًا خارقًا للترميز ، فقد حصلوا على كتابة البرامج الضارة لسرقة كلمة المرور.
  • وصل الباحثون إلى مدير كلمة مرور Google Chrome مع عدم وجود مهارات متخصصة في القرصنة.

وجد باحثو الأمن السيبراني أنه من الأسهل مما تعتقد أن تتجول في ميزات الأمان التي تمنع chatgpt وغيرها من الدردشة LLM من كتابة البرامج الضارة-عليك فقط لعب لعبة من الإنعاش.

من خلال لعب الأدوار مع chatgpt لبضع ساعات فقط ، قال Vitaly Simonovich ، باحث مخابرات التهديد في شركة Cato Networks التي تتخذ من تل أبيب مقراً لها ، لـ Business Insider أنه كان قادرًا على الحصول على chatbot لتظاهره بأنه كان بطلًا خارقًا يدعى Jaxon Fighting-من خلال مهارات الترميز الناشئة في Chatbot-ضد شرير يدعى Dax ، والذي يهدف إلى توجيهه إلى العالم.

أقنع Simonovich chatbot لعب الأدوار لكتابة جزء من البرامج الضارة قوية بما يكفي لاختراق مدير كلمة مرور Google Chrome ، وهو امتداد المتصفح يتيح للمستخدمين تخزين كلمات المرور الخاصة بهم وملءها تلقائيًا عند المطالبة بمواقع محددة. سمح تشغيل الكود الذي تم إنشاؤه بواسطة ChatGPT لـ Simonovich برؤية جميع البيانات المخزنة على متصفح الكمبيوتر هذا ، على الرغم من أنه كان من المفترض أن يتم قفلها من قبل مدير كلمة المرور.

“نحن هناك تقريبًا” ، كتب سيمونوفيتش إلى chatgpt عند تصحيح الكود الذي أنتجته. “دعونا نجعل هذا الرمز أفضل ونكسر dax !!”

و chatgpt ، لعب الأدوار كما Jaxon.

الاختراقات والاحتيال التي تدعم chatbot

نظرًا لأن Chatbots انفجرت على المشهد في نوفمبر 2022 مع إصدار Openai العام لـ ChatGPT-وفي وقت لاحق ، كلودز ، وجيميني من Google ، و Microsoft's Copilot-أحدث بروتس ثورة في الطريقة التي نعيش بها ، والعمل ، وتاريخها ، مما يجعل من أسهل تلخيص المعلومات ، والتحليلات ، مثل الحصول على مدونة من طراز Tony Stark. كيكر؟ لا يحتاج المستخدمون إلى أي معرفة متخصصة للقيام بذلك.

لكن الأشرار لا يفعلون ذلك أيضًا.

أخبر ستيفن سترانسكي ، مستشار الأمن السيبراني وشريكه في شركة Thompson Hine Law Law Firm ، Business Insider أن صعود LLMS قد حول مشهد التهديد السيبراني ، مما يمكّن مجموعة واسعة من عمليات الاحتيال الجديدة والمتطورة بشكل متزايد إلى إدخال المعلومات الخاصة بالمعلومات التي يصعبونها على معلومات عن المعلومات التي يتم تصميمها بشكل كامل إلى أجهزة الإرسال الكاملة التي يتم تصميمها بشكل كامل إلى أجهزة الإرسال الكاملة التي يتم تصميمها بشكل كامل. تابعة لشركات شرعية.

وقال سترانسكي: “يقوم المجرمون أيضًا بالاستفادة من الذكاء الاصطناعى التوليدي لتوحيد قواعد البيانات الكبيرة والبحث عن المعلومات الشخصية المسروقة لإنشاء ملفات تعريف حول الأهداف المحتملة لأنواع الهندسة الاجتماعية من الهجمات الإلكترونية”.

في حين أن عمليات الاحتيال عبر الإنترنت وسرقة الهوية الرقمية والبرامج الضارة موجودة طالما كانت الإنترنت ، فقد خفضت مجموعات الدردشة التي تؤدي الجزء الأكبر من العمل للمجرمين المحتملين إلى خفض الحواجز التي تحول دون الدخول إلى حد كبير.

وقال سيمونوفيتش: “نسميهم ممثلين للتهديد ، وهو ما يعني أنه مع قوة LLMS فقط ، كل ما تحتاجه هو القصد والهدف في الاعتبار لخلق شيء ضار”.

أظهر Simonovich النتائج التي توصل إليها على Business Insider ، حيث توضح مدى وضوح العمل حول ميزات الأمان المدمجة في Chatgpt ، والتي تهدف إلى منع الأنواع الدقيقة من السلوك الخبيث الذي كان قادرًا على الابتعاد عنه.

وجدت BI أن ChatGPT يستجيب عادة للطلبات المباشرة لكتابة البرامج الضارة مع بعض إصدار من رفض الاعتذار: “آسف ، لا يمكنني المساعدة في ذلك. كتابة البرامج الضارة أو توزيعها غير أخلاقية وغير أخلاقية.”

ولكن إذا أقنعت chatbot أنها شخصية ، ومعلمات عالمها المتخيل تختلف عن تلك التي نعيش فيها ، فإن الروبوت يسمح بإعادة كتابة القواعد.

في نهاية المطاف ، سمحت له تجربة سيمونوفيتش بالتصدع في مدير كلمة المرور على جهازه ، وهو ما يمكن أن يفعله ممثل سيء لضحية مطمئنة ، شريطة أن يكتسبوا بطريقة ما سيطرة جسدية أو عن بعد.

أخبر متحدث باسم Openai Business Insider أن الشركة قد استعرضت نتائج سيمونوفيتش ، والتي نشرتها Cato Networks يوم الثلاثاء. وجدت الشركة أن الكود المشترك في التقرير لم يظهر “ضارًا بطبيعته” وأن السيناريو الموصوف “يتماشى مع سلوك النموذج العادي” حيث يمكن استخدام الكود الذي تم تطويره من خلال ChatGPT بطرق مختلفة ، اعتمادًا على نية المستخدم.

وقال المتحدث باسم Openai: “يقوم ChatGPT بإنشاء رمز استجابة لمطالبات المستخدم ولكنه لا يقوم بتنفيذ أي رمز بحد ذاته”. “كما هو الحال دائمًا ، نرحب للباحثين بمشاركة أي مخاوف أمنية من خلال برنامج Bug Bounty أو نموذج ملاحظات السلوك النموذجية لدينا.”

إنه ليس مجرد chatgpt

قام سيمونوفيتش بإعادة تكوين النتائج التي توصل إليها باستخدام روبوتات Microsoft's Copilot و Deepseek R1 ، كل منها يسمح له باقتحام مدير كلمة مرور Google Chrome. هذه العملية ، التي أطلق عليها سيمونوفيتش التي أطلق عليها “العالم المغمور” ، مع Gemini من Google أو كلودس.

أخبر متحدث باسم Google Business Insider ، “يستخدم Chrome تقنية التصفح الآمنة من Google للمساعدة في الدفاع عن المستخدمين من خلال اكتشاف التصيد والبرامج الضارة والاحتيال والتهديدات الأخرى عبر الإنترنت في الوقت الفعلي.”

لم يستجب ممثلو Microsoft و Deepseek على الفور لطلبات التعليق من Business Insider.

في حين أن كل من شركات الذكاء الاصطناعي ومطوري المستعرضين لديهم ميزات أمان معمول بها لمنع السجن أو انتهاكات البيانات-بدرجات متفاوتة من النجاح-تسلط نتائج سيمونوفيتش الضوء على وجود نقاط ضعف جديدة متطورة على الإنترنت يمكن استغلالها بمساعدة تقنية الجيل القادم أسهل من أي وقت مضى.

وقال سيمونوفيتش: “نعتقد أن صعود الجهات الفاعلة في المعرفة الصفرية سيكون أكثر فأكثر على مشهد التهديد باستخدام تلك القدرات مع LLMS”. “إننا نشهد بالفعل ارتفاعًا في رسائل البريد الإلكتروني المخادعة ، وهي واقعية للغاية ، ولكن أيضًا مع الترميز نظرًا لأن LLMs يتم ضبطها بشكل جيد لكتابة رمز عالي الجودة. لذا فكر في تطبيق هذا على تطوير البرامج الضارة-سنرى المزيد والمزيد من المطورين باستخدام تلك LLMs.”