• وقال سريدار راماسوامي، الرئيس التنفيذي لشركة Snowflake، إن شركات التكنولوجيا تفتقر إلى الشفافية بشأن معدلات هلوسة الذكاء الاصطناعي لديها.
  • وقال إن المشكلة لا تكمن في الأخطاء العرضية، بل في عدم معرفة أي جزء من إجابة الذكاء الاصطناعي معطل.
  • صرح رئيس الذكاء الاصطناعي في Snowflake لموقع Business Insider أن دقة الذكاء الاصطناعي ستتحسن مع حواجز الحماية والبيانات المتنوعة.

قد يبدو الذكاء الاصطناعي وكأنه يمتلك كل الإجابات، لكنه مع ذلك يميل إلى تقديم إجابات وهمية تمامًا. وقال سريدار راماسوامي، الرئيس التنفيذي لشركة Snowflake، إن شركات الذكاء الاصطناعي ستستفيد من توضيح عدد مرات حدوث ذلك.

في حلقة حديثة من برنامج “The Logan Bartlett Show”، قال المدير التنفيذي السابق لشركة Google إن شركات التكنولوجيا يجب أن تكون أكثر شفافية بشأن معدلات هلوسة الذكاء الاصطناعي.

وقال راماسوامي: “إذا نظرت، فلن ينشر أحد معدلات الهلوسة بشأن هذه النماذج أو الحلول التي يقدمونها”. “يبدو الأمر وكأننا نقول: “انظر، نحن رائعون جدًا، يجب عليك فقط استخدامنا”.”

يمكن أن يهلوس حاملو شهادة الماجستير الحديثة بمعدل يتراوح بين 1% إلى 30% تقريبًا، وفقًا لتقديرات طرف ثالث.

وقال راماسوامي: “لا أعتقد أن هذا النوع من صناعة الذكاء الاصطناعي، إذا كان هناك مثل هذا المصطلح، يقدم أي خدمة لنفسه من خلال عدم التحدث عن أشياء مثل معدلات الهلوسة”.

وقد دافع بعض أباطرة التكنولوجيا عن هلوسة الذكاء الاصطناعي، بما في ذلك الرئيس التنفيذي لشركة OpenAI، سام ألتمان، الذي قال إن نماذج الذكاء الاصطناعي التي تجيب فقط عندما تكون متأكدة تمامًا ستفقد “سحرها”.

وقال ألتمان خلال مقابلة في عام 2023: “إذا فعلت الشيء الساذج وقلت: لا تقل أبدًا أي شيء لست متأكدًا منه بنسبة 100٪، فيمكنك إقناعهم جميعًا بفعل ذلك”. السحر الذي يحبه الناس كثيرًا.”

قال جاريد كابلان، أحد مؤسسي الأنثروبيك، في وقت سابق من هذا العام إن الهدف النهائي هو نماذج الذكاء الاصطناعي التي لا تهلوس، لكن أخطاء روبوتات الدردشة العرضية تعد “مفاضلة” ضرورية للمستخدمين.

وقال: “هذه الأنظمة – إذا قمت بتدريبها على عدم الهلوسة أبداً – ستصبح قلقة للغاية بشأن ارتكاب الأخطاء وستقول: “لا أعرف سياق” كل شيء”. الأمر متروك للمطورين لتحديد متى تكون الأخطاء العرضية مقبولة في منتج الذكاء الاصطناعي.

لقد أدت هلوسة الذكاء الاصطناعي إلى وضع بعض عمالقة التكنولوجيا في مواقف صعبة، كما حدث في العام الماضي، عندما تم رفع دعوى قضائية ضد OpenAI من قبل مضيف إذاعي لتقديم شكوى قانونية كاذبة.

وقال راماسوامي إنه خاصة بالنسبة “للتطبيقات المهمة” مثل تحليل البيانات المالية للشركة، فإن أدوات الذكاء الاصطناعي “لا يمكن أن ترتكب أخطاء”.

قال الرئيس التنفيذي لشركة Snowflake: “الشيء الخبيث في الهلوسة ليس أن النموذج يحصل على 5% من الإجابات الخاطئة، بل هو أنك لا تعرف أي 5% من الإجابات خاطئة، وهذا مثل مشكلة ثقة”.

صرح باريس جولتكين، رئيس الذكاء الاصطناعي في Snowflake، لموقع Business Insider في بيان له أن هلوسة الذكاء الاصطناعي هي “أكبر عائق” أمام الذكاء الاصطناعي التوليدي لمستخدمي الواجهة الأمامية.

وقال: “في الوقت الحالي، يتم نشر الكثير من الذكاء الاصطناعي التوليدي لحالات الاستخدام الداخلي فقط، لأنه لا يزال من الصعب على المؤسسات التحكم بالضبط في ما سيقوله النموذج والتأكد من دقة النتائج”.

ومع ذلك، قال غولتكين إن دقة الذكاء الاصطناعي ستتحسن، حيث أصبحت الشركات الآن قادرة على وضع حواجز على إنتاج النماذج لتقييد ما يمكن أن يقوله الذكاء الاصطناعي، والنغمات المسموح بها، وعوامل أخرى.

وقال: “إن النماذج تفهم بشكل متزايد حواجز الحماية هذه، ويمكن ضبطها للحماية من أشياء مثل التحيز”.

ومع زيادة الوصول إلى البيانات والمصادر المتنوعة، قال غولتكين إن الذكاء الاصطناعي سيصبح أكثر دقة على نحو متزايد، وسيتم “تخفيف الكثير من ردود الفعل العنيفة من خلال حالة استخدام ناجحة واحدة في كل مرة”.

قال الرئيس التنفيذي لشركة Snowflake إنه على الرغم من رغبته في الحصول على دقة بنسبة 100% لبعض أنظمة الذكاء الاصطناعي مثل روبوتات الدردشة المالية، إلا أن هناك حالات أخرى حيث “يقبل المستخدمون بسعادة قدرًا معينًا من الأخطاء”.

على سبيل المثال، قال راماسوامي إن الناس يرسلون له الكثير من المقالات ليقرأها. عندما يقوم بإدخالها في برنامج الدردشة الآلي مثل Claude أو ChatGPT، فإنه لا يمانع إذا لم يكن الملخص دائمًا صحيحًا تمامًا.

وقال: “إنها ليست صفقة كبيرة لأنها مجرد توفير للوقت الذي أحصل عليه من عدم الاضطرار فعليًا إلى قراءة المقالة – هناك الكثير من القيمة”.