حجم الخط

- Aa +

الأربعاء 4 سبتمبر 2019 01:45 م

حجم الخط

- Aa +

رئيس تنفيذي يقع ضحية أول احتيال صوتي بالذكاء الاصطناعي

243 ألف دولار قام بتحويلها رئيس تنفيذي فيما وصف بأول احتيال صوتي بالذكاء الاصطناعي

رئيس تنفيذي يقع ضحية أول احتيال صوتي بالذكاء الاصطناعي
رغم أن صوت الكوميدي سيث روجان شائع لدرجة يألفه الكثيرون إلا أن الذكاء الاصطناعي يفلح في خداع الكثيرين ممن يعرفون هذا الكوميدي

نقلت صحيفة وول ستريت جورنال أن رئيسا تنفيذيا لشركة نفطية في مكتبها البريطاني، وقع ضحية محتالين دفعوا به لتحويل أكثر من ربع مليون دولار ظنا منه أنها لمديره.

واعتقد الضحية الإنكليزي أنه يستمع لصوت مديره يطلب منه تحويل أموال لطرف ثالث لا يرتبط بالشركة النفطية الألمانية، فيما كان الصوت لشخص محتال استخدم تجهيزات الذكاء الاصطناعي للتلاعب بصوته.

 وطلب المحتال من الرئيس التنفيذي تحويل 243 ألف دولار لحساب في هنغارية خلال ساعة على أنه مزود منتجات للشركة الألمانية. ونقلت الصحيفة عن شركة التأمين المتعاقدة مع الشركة الألمانية، وهي شركة يولر هرمز للتأمين تفاصيل الحادثة دون الكشف عن اسم الشركة الألمانية.

 وافاد روديجر كرش  خبير الاختيال في شركة التأمين أن الضحية تعرف على صوت مديره لأنه يتحدث الإنكليزية بلكنة ألمانية وبذات النبرة المألوفة لديه، وقال كرش إن شركته تتعامل لأول مرة مع جرائم محاكاة الصوت بالذكاء الاصطناعي.

 ويؤكد كرش إن تقنية الصوت الذي يولد بالذكاء الاصطناعي أصبح يتمتع بدرجة عالية من الواقعية في تقليد أصوات الأشخاص من خلال توفر برامج تجارية تباع لغرض تقليد الأصوات. وقامت شركة ديسا Dessa المعروفة بمنتجات الذكاء الاصطناعي بإصدار تحذير من خلال نشر ملفات صوتية لكوميدي معروف هو سيث روجان لكنها ليست حقيقة من روجان بل من برامج ذكاء اصطناعي لا يمكن تمييزها عن الصوت الحقيقي للممثل الكوميدي بسهولة.

 وحذرت شركة ديسا من تبعات تقنية تقليد الأصوات بالذكاء الاصطناعي ومخاطرها مثل التلاعب بالانتخابات وانتحال هوية أفراد العائلة والحصول على تصاريح أمنية، وقالت الشركة أنها مسألة وقت فقط وسنرى أن تسجيل ثوان قليلة من صوت أي شخص تكفي لتوليد صوت مشابه. يذكر أن عملية الاحتيال وقعت في شهر مارس أي قبل نشر ديسا لتحذيرها بشهرين.