استنساخ الصوت بالذكاء الاصطناعي يزيد عمليات الاحتيال
انتاب امرأة قلق بعدما سمعت صوت كريمتها وهي تبكي في مكالمة هاتفية يزعم رجل فيها أنه خطف الفتاة ويطالب بفدية. إلا أن نبرة صوت الابنة لم تكن حقيقية بل مبتكرة بوساطة تقنية الذكاء الاصطناعي في محاولة للقيام بعملية احتيال، وهي مسألة مقلقة تبرز مع هذه التكنولوجيا التي تشهد ازدهارا في المرحلة الراهنة.
ويشير الخبراء إلى أن الخطر الأبرز للذكاء الاصطناعي يتمثل في قدرة هذه التقنية على تبديدها تقريبا الخط الفاصل بين الحقيقة والخيال، وتزويد المجرمين بأدوات فاعلة وغير مكلفة.
وتثير عمليات احتيال هاتفية حديثة باستخدام أدوات النسخ الصوتي المستندة إلى الذكاء الاصطناعي والمتاحة بسهولة عبر الإنترنت، قلق السلطات الأمريكية.
وتسمع جينيفر ديستيفانو، وهي أم تقيم في أريزونا، عبر الهاتف صوتا يقول "ساعديني يا أمي، أرجوك ساعديني".
وصدقت الوالدة أن الصوت عائد إلى ابنتها البالغة 15 عاما والتي خرجت لممارسة التزلج.
وتقول لمحطة تلفزيونية محلية في حديث يعود إلى نيسان (أبريل)، "كان الصوت مطابقا لصوت ابنتي مع طريقة بكائها نفسها"، مضيفة، "لم أشك للحظة في أنها قد لا تكون هي".
وطلب المحتال الذي اتصل بالوالدة من رقم مجهول، الحصول على مليون دولار لقاء إطلاق سراح الفتاة.
وحاليا، تخضع هذه الحادثة التي وصلت إلى نهايتها سريعا بعدما تمكنت ديستيفانو من التواصل مع ابنتها، لتحقيق من السلطات المختصة، وكان لها دور في تسليط الضوء على عمليات الاحتيال المحتملة بفعل استخدام مجرمي الإنترنت برامج الذكاء الاصطناعي.
ويؤكد وسيم خالد المدير التنفيذي لشركة "بلاكبيرد. أيه آي" ، لـ"الفرنسية"، أن "النسخ الصوتي عبر الذكاء الاصطناعي والذي بات من شبه المستحيل تمييزه عن الصوت البشري، يتيح للأشخاص سيئي النية كالمحتالين الحصول على معلومات ومبالغ من الضحايا بأسلوب أكثر فاعلية مما يعتمدون في العادة".
وتتيح تطبيقات كثيرة مجانية ومتاحة عبر الإنترنت بدرجة كبيرة، استنساخ الصوت الفعلي لشخص ما عبر برنامج للذكاء الاصطناعي يستند إلى تسجيل قصير لصوت هذا الشخص. ويمكن للمحتال أن يحصل على تسجيلات مماثلة من محتويات منشورة من الضحية عبر الإنترنت.