بقلم كلينت بولتون
غالبًا ما تكون السحابة العامة هي المحطة الأولى للمؤسسات التي تنشر أحمال عمل جديدة. إن نهجها المرن في بناء التطبيقات واختبارها وتوسيع نطاقها يجعلها منصة سهلة الاستخدام للموظفين الذين يعانون من ضيق الوقت.
ولكن يمكن للسحابة العامة أن تصبح أيضًا لعنة على قادة تكنولوجيا المعلومات عندما يستخدمها الموظفون، جنبًا إلى جنب مع أدوات SaaS، لتقديم التطبيقات واستهلاكها بأنفسهم – وهي الممارسة المعروفة باسم تكنولوجيا المعلومات الظلية.
ربما يكون هذا أكثر صدقًا من أي وقت مضى بالنسبة للذكاء الاصطناعي التوليدي، وهو عبء عمل شائع بشكل متزايد. لقد برز الذكاء الاصطناعي الظلي، أو الاستخدام غير المصرح به لتقنيات مثل GenAI، كتهديد خطير للمنظمات التي تحاول تأمين الملكية الفكرية والبيانات الخاصة بالشركات.
يمكن أن تساعد حواجز الحماية والتدريب المناسبين، جنبًا إلى جنب مع نشر GenAI في مركز البيانات لديك، في التخفيف من بعض هذه المخاطر. بالنسبة للمؤسسات التي تبدأ باستخدام GenAI، من المهم أن تفهم سبب خطورة الذكاء الاصطناعي الظلي لتحديد كيفية التعامل معه بشكل أفضل.
لماذا يشكل الذكاء الاصطناعي الظلي تهديدًا حقيقيًا
تقرير مايكروسوفت ولينكدإن1 أن 78% من الموظفين “يستخدمون تقنيات الذكاء الاصطناعي الخاصة بهم في العمل”، (BYOAI)، وهي طريقة أكثر ليونة لوصف الذكاء الاصطناعي الظلي. ويقر البحث أيضًا بأن مثل هذا BYOAI يعرض بيانات الشركة للخطر.
تشترك Shadow IT وshadow AI في نفس العوائق المنخفضة أمام ديناميكيات الدخول والمنصة. مثلما يستطيع الموظفون الوصول بسهولة إلى السحابة العامة وحلول SaaS، يمكنهم ببساطة تسجيل الدخول إلى مساعد رقمي عام ومطالبته بالبدء في إنشاء المحتوى. لا يختلف منحنى التعلم للمطالبة الأساسية كثيرًا عن الاستعلام عن Google ومحركات البحث الأخرى.
يعد كل هذا جيدًا وجيدًا حتى يقوم الموظفون بإدخال معلومات مميزة، مثل بيانات التعريف الشخصية أو المعلومات المالية أو وثائق الإستراتيجية المهمة.
في أفضل الأحوال، يشارك الموظف بيانات حساسة مع بائع تابع لجهة خارجية. وفي أسوأ الأحوال، قد يستخدم البائع هذه المعلومات لتدريب نموذجه باستمرار، والذي قد يستخدمها في الرد على مطالبات المستخدمين الآخرين. إن تكرار المعلومات في مجال المستهلك أمر مختلف تمامًا في سياق الشركات.
وعليه، فإن المخاطر الأمنية المرتبطة باستهلاك الموظفين لبرامج الماجستير في القانون العامة حقيقية للغاية، وخاصة عندما لا تكون أقسام تكنولوجيا المعلومات على دراية بالبيانات التي يستخدمها موظفوها في طلباتهم.
عندما تطلق المؤسسات مبادرات GenAI، يمكنها اتخاذ خطوات للمساعدة في تقليل المخاطر المرتبطة باعتماد التكنولوجيا الناشئة. هذه النصائح يمكن أن تساعد:
يمكن أن يكون في أماكن العمل أكثر لطفًا بالنسبة للميزانية
وفي الواقع، قد تكون عمليات النشر المحلية أيضًا أكثر فعالية من حيث التكلفة.
أظهرت الأبحاث أن نشر برنامج LLM مفتوح المصدر مع RAG في الموقع أثبت أنه أكثر فعالية من حيث التكلفة من مرتين إلى ثماني مرات للاستدلال باستخدام برامج LLM مفتوحة المصدر مقارنة بالسحابة العامة أو الخدمات القائمة على واجهة برمجة التطبيقات، وفقًا لمسح أجرته Enterprise Strategy Group.2
وجدت ESG أن تشغيل Mistral 7B (7 مليار معلمة) مع RAG كان أكثر فعالية من حيث التكلفة بنسبة 38% إلى 48% من Amazon Web Services. كما أن النموذج الأكبر حجمًا حقق وفورات أكبر، حيث كان تشغيل Llama 2 (70 مليار معلمة) مع RAG أكثر فعالية من حيث التكلفة بنسبة 69% إلى 75% من AWS.
قامت ESG بتشغيل نفس نموذج Llama 2 مقابل واجهة برمجة تطبيقات ChatGPT 4 Turbo الخاصة بـ OpenAI ووجدت أن النشر المحلي كان أكثر فعالية من حيث التكلفة بنسبة 81% إلى 88%.
الخط السفلي
لن يؤدي نشر خدمات GenAI محليًا إلى القضاء على الذكاء الاصطناعي الظلي، ولكنه قد يساعد المؤسسات على الحفاظ على السيطرة على الملكية الفكرية الخاصة بالشركة من خلال جلب الذكاء الاصطناعي إلى بياناتها بدلاً من تكليف جهة خارجية بها.
بغض النظر عن النماذج التي يختارها قادة تكنولوجيا المعلومات أو المواقع التي يختارونها لتشغيلها، يظل نشر أعباء عمل GenAI يمثل تحديًا للمؤسسات التي قد لا تمتلك المعدات، ناهيك عن الخبرة اللازمة لنشرها.
وهنا يأتي دور الشركاء الموثوق بهم. تعد Dell Technologies رائدة في النظام البيئي المفتوح المتنامي الذي يساعد المؤسسات على بناء خدمات GenAI واختبارها ونشرها. يمكن للبنية الأساسية التي تدعمها تقنية الذكاء الاصطناعي وأجهزة العملاء والخدمات المهنية التي تقدمها Dell أن تساعد الشركات على طول رحلتها نحو GenAI.
تعرف على المزيد حول حلول الذكاء الاصطناعي من Dell.
تم إنشاء هذا المنشور بواسطة Dell مع Insider Studios.
1 الذكاء الاصطناعي في العمل هنا. الآن يأتي الجزء الصعب، Microsoft وLinkedIn، مايو 2024
2 فهم التكلفة الإجمالية لاستنتاج نماذج اللغة الكبيرة، مجموعة استراتيجية المؤسسة، أبريل 2024