حذرت شركة OpenAI، مطورة نموذج الذكاء الاصطناعي ChatGPT، مطوري التطبيقات من خطر متزايد لهجمات التصيد الاحتيالي، وذلك بعد تعرض شريكها التحليلي Mixpanel لخرق أمني. قد يشمل هذا الخرق بيانات تعريفية لمستخدمي منصة مطوري OpenAI، مما يزيد من احتمالية استهدافهم برسائل احتيالية. هذا الحادث يثير مخاوف بشأن أمن البيانات في قطاع الذكاء الاصطناعي المتنامي.

أعلنت OpenAI يوم الخميس أن الخرق الأمني الذي وقع في Mixpanel في وقت سابق من هذا الشهر قد يكون تضمّن معلومات محدودة مثل الأسماء وعناوين البريد الإلكتروني والمواقع التقريبية لبعض مستخدمي واجهة برمجة التطبيقات (API). وأكدت الشركة أن أنظمتها الداخلية لم تتعرض للاختراق وأن مستخدمي ChatGPT لم يتأثروا، وأن كلمات المرور وتفاصيل الدفع وطلبات الدردشة أو واجهة برمجة التطبيقات لم يتم اختراقها.

تحذيرات بشأن هجمات التصيد الاحتيالي وأمن البيانات

على الرغم من أن البيانات المسربة تعتبر منخفضة الحساسية، إلا أن OpenAI حذرت من إمكانية استخدامها لاستهداف المطورين بهجمات التصيد الاحتيالي. ووصفت الشركة هذه الهجمات بأنها قد تكون مقنعة للغاية، ونصحت المطورين بالتعامل بحذر مع أي رسائل أو اتصالات غير متوقعة. يأتي هذا التحذير في وقت يشهد فيه قطاع التكنولوجيا زيادة في محاولات الاختراق.

أشار جيك مور، مستشار الأمن السيبراني العالمي في شركة ESET للأمن السيبراني، إلى أن البيانات المكشوفة، على الرغم من أنها “منخفضة الحساسية”، يمكن دمجها لـ “صياغة رسائل احتيالية مقنعة”. هذا يسلط الضوء على أهمية الحذر والوعي الأمني بين المطورين.

هجوم “Smishing” وراء الاختراق

أفاد متحدث باسم Mixpanel أن الاختراق الذي استهدف أنظمتهم بدأ بهجوم “smishing” في 8 نوفمبر. هجمات “Smishing” تستخدم رسائل نصية وهمية لخداع الضحايا للكشف عن معلومات شخصية أو تنزيل برامج ضارة. تعتبر هذه الهجمات وسيلة شائعة لجمع البيانات الحساسة.

لم تكشف الشركتان عن عدد الأشخاص المتضررين من سرقة البيانات. ومع ذلك، فإن هذا الحادث يثير تساؤلات حول فعالية إجراءات الأمن السيبراني المتبعة من قبل الشركات التي تتعامل مع بيانات المستخدمين.

تاريخ من الاختراقات في OpenAI

يشهد النمو السريع لشركة OpenAI، وتطورها لتصبح واحدة من أكثر الشركات قيمة في العالم، زيادة في استهدافها من قبل المتسللين. في العام الماضي، ذكرت صحيفة نيويورك تايمز أن أحد المتسللين تمكن من الوصول إلى أنظمة المراسلة الداخلية للشركة وسرقة بيانات متعلقة بتقنية الذكاء الاصطناعي المتقدمة.

بالإضافة إلى ذلك، أفاد باحث سابق في OpenAI في يونيو 2024 بأنه تم فصله بعد إثارته مخاوف بشأن أمن الشركة والتهديد المحتمل للتجسس الصيني. هذه الأحداث تؤكد على التحديات المستمرة التي تواجهها OpenAI في حماية معلوماتها الحساسة.

تعتبر حماية الخصوصية الرقمية للمستخدمين أولوية قصوى، خاصة في ظل التطور السريع لتقنيات الذكاء الاصطناعي. يتطلب ذلك استثمارات مستمرة في الأمن السيبراني وتدريب الموظفين على أفضل الممارسات الأمنية.

لم ترد OpenAI على طلب للتعليق، تم إرساله خارج ساعات العمل الرسمية.

من المتوقع أن تواصل Mixpanel و OpenAI التحقيق في هذا الخرق الأمني وتقييم الأضرار. سيراقب الخبراء عن كثب الإجراءات التي ستتخذها الشركتان لتعزيز أمن البيانات ومنع وقوع حوادث مماثلة في المستقبل. كما سيتابعون أي تطورات جديدة في مجال التهديدات السيبرانية التي تستهدف قطاع الذكاء الاصطناعي.

شاركها.
Exit mobile version