تدرك شركة OpenAI أن الأدوات الصوتية التي يتم إنشاؤها بواسطة الذكاء الاصطناعي يمكن أن تكون عملاً غير واضح.

وفي منشور مدونة يشارك نتائج مرحلة الاختبار المبكرة لأداة الصوت الاصطناعية الجديدة، تناولت شركة الذكاء الاصطناعي المخاوف بشأن استخدام الذكاء الاصطناعي لتكرار الأصوات البشرية، خاصة في عام الانتخابات.

تستخدم أداة “Voice Engine” الخاصة بـ OpenAI، والتي تقول الشركة إنها طورتها لأول مرة في أواخر عام 2022، مقطعًا صوتيًا مدته 15 ثانية من صوت شخص حقيقي لإنشاء نسخة طبق الأصل واقعية بشكل مخيف من هذا الصوت.

ويمكن للمستخدمين جعل هذا الصوت يقول أي شيء، حتى بلغات أخرى.

الأداة ليست متاحة للعامة بعد، وتقول OpenAI إنها لا تزال تدرس “ما إذا كان سيتم نشر هذه التكنولوجيا على نطاق واسع وكيفية ذلك”.

وكتبت OpenAI في مدونتها: “نحن ندرك أن توليد خطاب يشبه أصوات الناس ينطوي على مخاطر جسيمة، والتي تتصدر قائمة أولوياتنا بشكل خاص في عام الانتخابات”. “نحن نتعامل مع شركاء أمريكيين ودوليين من جميع أنحاء الحكومة ووسائل الإعلام والترفيه والتعليم والمجتمع المدني وخارجها لضمان دمج ملاحظاتهم أثناء البناء.”

يستخدم OpenAI حاليًا الأداة لتشغيل ميزات “القراءة بصوت عالٍ” في ChatGPT، بالإضافة إلى واجهة برمجة تطبيقات تحويل النص إلى كلام الخاصة بالشركة.

وفي نهاية العام الماضي، بدأت شركة OpenAI في توسيع الأداة خارجيًا، والعمل مع ما وصفته بـ “مجموعة صغيرة من الشركاء الموثوقين” لاختبار المحرك الصوتي لأشياء مثل المواد التعليمية للأطفال، وترجمة اللغات، واستعادة الصوت الطبي، حسبما ذكرت الشركة. وقال في منصبه.

وشددت OpenAI على أن المنظمات الشريكة لها يجب أن تلتزم بالسياسات الصارمة لاستخدام Voice Engine، مثل الحصول على موافقة من كل فرد يتم انتحال شخصيته وإبلاغ المستمعين بأن الصوت تم إنشاؤه بواسطة الذكاء الاصطناعي.

وكتبت الشركة: “إننا نتبع نهجًا حذرًا ومستنيرًا تجاه إصدار أوسع نطاقًا بسبب احتمال إساءة استخدام الصوت الاصطناعي”. “نأمل أن نبدأ حوارًا حول النشر المسؤول للأصوات الاصطناعية، وكيف يمكن للمجتمع أن يتكيف مع هذه القدرات الجديدة.”

على الرغم من أن الشركة قالت إنها ليست متأكدة بعد ما إذا كانت ستطلق الأداة لعامة الناس، إلا أنها دفعت صناع السياسات والمطورين إلى اتخاذ خطوات لمنع سوء الاستخدام الخطير للتكنولوجيا التي كانت تطورها.

على سبيل المثال، اقترحت شركة OpenAI إنشاء “قائمة أصوات محظورة” لمنع التكرار غير التوافقي للأصوات البارزة، مثل السياسيين أو المشاهير.

وأوصت الشركة أيضًا بأن تتوقف البنوك عن استخدام المصادقة الأمنية القائمة على الصوت، وأن يقوم الباحثون بتطوير تقنيات لتتبع ما إذا كان الصوت حقيقيًا أم مزيفًا.

شاركها.