Connect with us

Hi, what are you looking for?

دولي

هل يمكنك الوثوق بأذنيك؟ خداع صوت الذكاء الاصطناعي يزعج الولايات المتحدة

يستخدم المحتالون أدوات استنساخ صوت AI مقنعة بشكل مذهل – متاحة على نطاق واسع عبر الإنترنت – للسرقة من الأشخاص عن طريق انتحال شخصية أفراد الأسرة

تُظهر هذه الصورة التوضيحية التي تم إنشاؤها في 9 يونيو 2023 هاتفًا ذكيًا يسجل أمام شاشة استنساخ الصوت في لوس أنجلوس. – وكالة فرانس برس

بدا الصوت على الهاتف حقيقيًا بشكل مخيف – سمعت أم أمريكية ابنتها تبكي قبل أن يتولى رجل السلطة ويطالب بفدية. لكن الفتاة كانت مستنسخة من الذكاء الاصطناعي وكان الاختطاف مزيفًا.

يقول الخبراء إن الخطر الأكبر للذكاء الاصطناعي هو قدرته على هدم الحدود بين الواقع والخيال ، ومنح مجرمي الإنترنت تقنية رخيصة وفعالة لنشر المعلومات المضللة.

في سلالة جديدة من عمليات الاحتيال التي هزت السلطات الأمريكية ، يستخدم المحتالون أدوات استنساخ صوت AI مقنعة بشكل مذهل – متوفرة على نطاق واسع عبر الإنترنت – للسرقة من الأشخاص عن طريق انتحال صفة أفراد الأسرة.

سمعت جينيفر ديستيفانو ، وهي أم مقيمة في أريزونا ، صوتًا يقول على الطرف الآخر من السطر: “ساعدني يا أمي ، أرجوك ساعدني”.

كانت ديستيفانو مقتنعة “بنسبة 100 في المائة” بأن ابنتها البالغة من العمر 15 عامًا تعاني من ضائقة شديدة أثناء تواجدها في رحلة تزلج.

وقالت ديستيفانو لمحطة تلفزيونية محلية في أبريل / نيسان “لم يكن السؤال مطلقا من هذه؟ لقد كان صوتها تماما … كانت الطريقة التي كانت تبكي بها”.

“لم أشك ولو لثانية واحدة في أنها كانت هي”.

طالب المحتال الذي تولى المكالمة ، التي جاءت من رقم غير مألوف لديستيفانو ، بما يصل إلى مليون دولار.

انتهت الحيلة التي تعمل بالذكاء الاصطناعي في غضون دقائق عندما اتصلت DeStefano بابنتها. لكن القضية المروعة ، التي تخضع الآن لتحقيق الشرطة ، سلطت الضوء على احتمال قيام مجرمي الإنترنت بإساءة استخدام نسخ الذكاء الاصطناعي.

وقال وسيم خالد الرئيس التنفيذي لشركة بلاك بيرد لوكالة فرانس برس ان “استنساخ الصوت بالذكاء الاصطناعي ، الذي لا يمكن تمييزه تقريبا عن الكلام البشري ، يسمح لممثلي التهديد مثل المحتالين باستخراج المعلومات والأموال من الضحايا بشكل أكثر فعالية”.

ينتج عن البحث البسيط على الإنترنت مجموعة واسعة من التطبيقات ، يتوفر العديد منها مجانًا ، لإنشاء أصوات AI باستخدام عينة صغيرة – أحيانًا بضع ثوانٍ فقط – من صوت شخص حقيقي يمكن سرقته بسهولة من المحتوى المنشور عبر الإنترنت.

قال خالد: “باستخدام عينة صوتية صغيرة ، يمكن استخدام استنساخ صوت بالذكاء الاصطناعي لترك رسائل بريد صوتي ونصوص صوتية. ويمكن حتى استخدامه كمغير صوتي مباشر في المكالمات الهاتفية”.

“يمكن للمحتالين استخدام لهجات مختلفة ، أو أجناس ، أو حتى تقليد أنماط الكلام لأحبائهم. (التكنولوجيا) تسمح بإنشاء مزيفة عميقة مقنعة.”

في دراسة استقصائية عالمية شملت 7000 شخص من تسع دول ، بما في ذلك الولايات المتحدة ، قال واحد من كل أربعة أشخاص إنهم تعرضوا لعملية احتيال لاستنساخ الصوت باستخدام الذكاء الاصطناعي أو يعرفون شخصًا قام بذلك.

قال سبعون بالمائة من المستجيبين إنهم غير واثقين من قدرتهم على “معرفة الفرق بين الصوت المستنسخ والشيء الحقيقي” ، حسبما جاء في الاستطلاع الذي نشرته الشهر الماضي شركة McAfee Labs ومقرها الولايات المتحدة.

حذر المسؤولون الأمريكيون من تصاعد ما يُعرف عمومًا بـ “عملية احتيال الأجداد” – حيث يتظاهر المحتال بأنه حفيد في حاجة ماسة إلى المال في موقف عصيب.

قالت لجنة التجارة الفيدرالية الأمريكية: “تتلقى مكالمة. هناك صوت مذعور على الخط. إنه حفيدك. يقول إنه في ورطة عميقة – حطم السيارة وسقط في السجن. لكن يمكنك المساعدة بإرسال الأموال” في تحذير مارس.

“يبدو مثله تمامًا. كيف يمكن أن يكون عملية احتيال؟ استنساخ الصوت ، هكذا.”

في التعليقات تحت تحذير لجنة التجارة الفيدرالية كانت هناك شهادات متعددة لكبار السن الذين تم خداعهم بهذه الطريقة.

يعكس ذلك أيضًا تجربة إيدي ، البالغ من العمر 19 عامًا في شيكاغو ، والذي تلقى جده مكالمة من شخص بدا مثله تمامًا ، مدعيًا أنه بحاجة إلى المال بعد حادث سيارة.

كانت الحيلة ، التي أبلغت عنها شركة McAfee Labs ، مقنعة للغاية لدرجة أن جده بدأ على وجه السرعة في جمع الأموال معًا ، بل وفكر في إعادة رهن منزله ، قبل اكتشاف الكذبة.

وقال هاني فريد الأستاذ في كلية الإعلام بجامعة بيركلي لوكالة فرانس برس “لأنه أصبح من السهل الآن إنتاج نسخ صوتية واقعية للغاية … فكل شخص تقريبا لديه أي وجود على الإنترنت معرض لهجوم”.

“هذه الحيل تكتسب زخما وتنتشر.”

في وقت سابق من هذا العام ، اعترفت شركة ElevenLabs الناشئة بالذكاء الاصطناعي بأن أداة استنساخ الصوت الخاصة بها يمكن أن يساء استخدامها “لأغراض خبيثة” بعد أن نشر المستخدمون صوتًا مزيفًا عميقًا يزعم أنه الممثل إيما واتسون يقرأ سيرة أدولف هتلر “كفاحي”.

وقال غال تال هوشبيرج ، كبير مسؤولي التكنولوجيا في شركة رأس المال الاستثماري Team8 ، لوكالة فرانس برس: “نقترب بسرعة من النقطة التي لا يمكنك فيها الوثوق بالأشياء التي تراها على الإنترنت”.

قال: “سنحتاج إلى تقنية جديدة لنعرف ما إذا كان الشخص الذي تعتقد أنك تتحدث إليه هو في الواقع الشخص الذي تتحدث إليه”.

اضف تعليقك

اترك تعليقك

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

مقالات ذات صلة

دولي

الصورة: وكالة فرانس برس ارتفعت حصيلة قتلى إعصار ياغي في ميانمار إلى 384 قتيلا، بينما لا يزال 89 شخصا في عداد المفقودين، حسبما أعلنت...

اخر الاخبار

نزل آلاف الإسرائيليين إلى شوارع تل أبيب، المركز التجاري لإسرائيل، يوم السبت للضغط من أجل التوصل إلى اتفاق هدنة في غزة يمكن أن يؤدي...

الخليج

الصورة المستخدمة لأغراض توضيحية. الصورة: ملف تبحث هيئة الطرق والمواصلات في دبي عن المواهب الإماراتية للانضمام إلى قوتها العاملة. وفي مقطع فيديو نشرته على...

دولي

صورة وكالة فرانس برس المستخدمة لأغراض توضيحية قال رئيس الوزراء اللبناني نجيب ميقاتي السبت إنه ألغى رحلة إلى الجمعية العامة للأمم المتحدة وندد بـ...

الخليج

صور KT: SM Ayaz Zakir كان الأمر أشبه بحفل موسيقي بالنسبة للعديد من الركاب أثناء تنقلهم في مترو دبي يوم السبت. وقد استمتع الركاب...

دولي

صورة الملف قال رئيس الوزراء الهندي ناريندرا مودي الذي بدأ يوم السبت زيارته التي تستمر ثلاثة أيام للولايات المتحدة إنه سيشارك في برامج مختلفة...

رياضة

كريستيانو رونالدو (يسار) وليونيل ميسي. الصورة: وكالة فرانس برس أبدى ستيفانو بيولي المدير الفني السابق لميلان رأيه في الجدل الدائر حول أفضل لاعب في...

دولي

الصورة المستخدمة لأغراض توضيحية. الصورة: ملف قالت إدارة الأرصاد الجوية في تايوان إن زلزالا بقوة 5.3 درجة ضرب مقاطعة هوالين ذات الكثافة السكانية المنخفضة...