كل ساعة مقال

سجل بريدك للحصول على مقالات تناسبك

كيفية منع الذكاء الاصطناعي من سرقة صوتك

تقدم تقنية جديدة تسمى AntiFake والتي تمنع سرقة صوتك عن طريق تعقيد عملية تسجيلات الصوت بواسطة أدوات .

تقدم الذكاء الاصطناعي في توليد الكلام

تمكن التطورات في الذكاء الاصطناعي الجيل الأصوات الاصطناعية التي تبدو حقيقية لدرجة أن الشخص لم يعد يستطيع التمييز بينما إذا كان يتحدث مع إنسان آخر أو مع شخصية مزيفة. إذا تم استنساخ صوت الشخص من قبل طرف ثالث دون موافقته، يمكن للأشخاص الضارين استخدامه لإرسال أي رسالة يرغبون فيها.

تهديد الاستنساخ الصوتي

تعتبر ال التي تقوم بنسخ الأصوات الحقيقية باستخدام برامج الصوت العميقة تهديدًا واضحًا، حيث يمكن استخدام الأصوات الاصطناعية بسهولة لإيهام الآخرين. ويمكن استخدام بضع ثوانٍ فقط من تسجيل الصوت لاستنساخ صوت الشخص بطريقة مقنعة. فأي شخص يرسل رسائل صوتية من حين لآخر أو يتحدث على أجهزة الرد الآلي قدم بالفعل ما يكفي من المواد لاستنساخ صوته.

تقنية AntiFake

قام الحاسوبي والمهندس نينغ زانغ من مدرسة ماكيلفي للهندسة في جامعة واشنطن في سانت لويس بتطوير طريقة جديدة لمنع توليد الكلام غير الح به قبل حدوثه: أداة تسمى AntiFake. قدم زانغ عرضًا عنها في مؤتمر جمعية الحوسبة وات الآلية في كوبنهاجن، الدنمارك، في 27 نوفمبر.

طريقة عمل AntiFake

تعمل أداة AntiFake على صعوبة استخلاص ملامح التسجيل الصوتي التي تهم عملية توليد الصوت. تستخدم الأداة تقنيات مشابهة لتلك المستخدمة من قبل المجرمين الإلكترونيين في استنساخ الأصوات لحماية الأصوات من القرصنة والتزوير. يمكن الحصول على نص المصدر لمشروع AntiFake بحرية.

تحديات مكافحة الاستنساخ الصوتي

تتحسن طرق ال وتصبح أكثر تطورًا باستمرار، كما يشهد الزيادة الحالية في الهجمات الإلكترونية التلقائية على والبنية التحتية والحكومات في جميع أنحاء العالم. لضمان قدرة AntiFake على مواجهة التحديات المتغيرة المحيطة بالاستنساخ الصوتي لأطول فترة ممكنة، قام زانغ وطالبه الدكتوراه زهيوان يو بتطوير أداة تدرب على منع مجموعة واسعة من ال المحتملة.

نتائج اختبار AntiFake

اختبر فريق زانغ الأداة مقابل خمسة مولدات حديثة للكلام. ووفقًا للباحثين، حقق AntiFake معدل حماية يبلغ 95 في المائة، حتى ضد المولدات التجارية المجهولة التي لم يتم ها خصيصًا لها. اختبر زانغ ويو أيضًا قابلية استخدام أداتهما مع 24 مشاركًا بشريًا من مجموعات ية مختلفة. ستكون هناك حاجة إلى مزيد من الاختبارات ومجموعة اختبار أكبر لإجراء مقارنة ممثلة.

تطبيقات AntiFake المستقبلية

يعتقد مبتكرو الأداة أنه يمكن توسيع استخدام AntiFake لحماية وثائق الصوت الأكبر حجمًا أو ال من الاستخدام السيئ. حاليًا، يتعين على المستخدمين القيام بذلك بأنفسهم، مما يتطلب مهارات البرمجة.

تحديات مستقبلية

تهدف الأداة إلى حماية تسجيلات الصوت بشكل كامل، وإذا تحقق هذا، سنتمكن من استغلال نقص كبير في بشكل آمن لمكافحة الاستنساخ الصوتي. ولكن يجب أن تستمر الأدوات والأساليب المطورة في التكيف باستمرار بسبب حتمية أن المجرمين الإلكترونيين سيون وينمون معها.

المصدر: Spektrum der Wissenschaft

المؤلفون: Silke Hahn و Gary Stix

Source: https://www.scientificamerican.com/article/how-to-keep-ai-from-stealing-the-sound-of-your-voice/


Posted

in

by

Comments

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *