Vietnam.vn - Nền tảng quảng bá Việt Nam

عمليات الاحتيال الصوتي باستخدام الذكاء الاصطناعي تُحدث فوضى في جميع أنحاء الولايات المتحدة

Báo Ninh ThuậnBáo Ninh Thuận12/06/2023

بدا الصوت على الهاتف حقيقيًا ومرعبًا. سمعت أم ابنتها تبكي قبل أن يخطف رجل الهاتف ويطالب بفدية.

لكن بحسب وكالة فرانس برس، فإن صوت الابنة في الواقع كان نتاجًا للذكاء الاصطناعي، وأن عملية الاختطاف كانت غير واقعية تمامًا.

وفي مواجهة مشكلة الاحتيال هذه، يقول الخبراء إن الخطر الأكبر الذي تشكله الذكاء الاصطناعي هو طمس الخط الفاصل بين الواقع والخيال، مما يمنح مجرمي الإنترنت تقنية رخيصة ولكنها فعالة لتنفيذ نواياهم الشريرة.

في سلسلة جديدة من عمليات الاحتيال التي تهز الولايات المتحدة، يستخدم المحتالون أدوات استنساخ الصوت بالذكاء الاصطناعي والتي تبدو واقعية بشكل مدهش - ومع ذلك يمكن الوصول إليها بسهولة عبر الإنترنت - لسرقة الأموال من خلال انتحال شخصية أفراد أسرة ضحاياهم.

سمعت جينيفر دي ستيفانو، المقيمة في ولاية أريزونا، صوتًا مذعورًا على الطرف الآخر من الخط. "ساعديني يا أمي، ساعديني".

٧٠٪ من المشاركين لا يعتقدون أنهم يستطيعون التمييز بين أصوات الذكاء الاصطناعي والأصوات البشرية الحقيقية. صورة توضيحية: مجلة الذكاء الاصطناعي

كانت ديستيفانو مقتنعة تمامًا بأن ابنتها البالغة من العمر خمسة عشر عامًا تعرضت لحادث تزلج. وصرحت ديستيفانو لمحطة تلفزيونية محلية في أبريل: "لم أشك في ذلك قط. كان هذا صوتها. كانت هذه هي طريقتها في البكاء. لم أشك في ذلك ولو للحظة".

أجرى المحتال المكالمة، وعرض رقمًا مجهولًا على هاتف السيدة ديستيفانو، مطالبًا بفدية تصل إلى مليون دولار. وانهارت خطة الابتزاز المدعومة بالذكاء الاصطناعي في غضون دقائق عندما تمكنت السيدة ديستيفانو من الاتصال بابنتها.

لكن هذه القضية المروعة تسلط الضوء على قدرة مجرمو الإنترنت على إساءة استخدام تقنيات الذكاء الاصطناعي لانتحال شخصيات الآخرين.

وقال وسيم خالد، الرئيس التنفيذي لشركة Blackbird.AI، لوكالة فرانس برس: "أصبحت قدرات استنساخ الصوت بالذكاء الاصطناعي لا يمكن تمييزها تقريبًا عن الصوت البشري الحقيقي، مما يسمح للمحتالين باستخراج المعلومات والأموال من الضحايا بكفاءة أكبر".

يُظهر بحث بسيط على الإنترنت وفرةً من التطبيقات المجانية التي تُولّد أصواتًا بتقنية الذكاء الاصطناعي باستخدام تسجيل صوتي قصير، قد لا يتجاوز بضع ثوانٍ. ونتيجةً لذلك، يُمكن بسهولة سرقة صوت الشخص الحقيقي من المحتوى الذي ينشره على الإنترنت.

باستخدام عينة صوتية صغيرة، يُمكن استخدام تقنية نسخ الصوت بالذكاء الاصطناعي لإرسال رسائل البريد الصوتي والرسائل الصوتية. كما يُمكن استخدامها لتغيير الصوت مباشرةً أثناء المكالمات الهاتفية، كما أشار خالد.

قد يستخدم المحتالون لهجات مختلفة، أو أجناسًا مختلفة، أو حتى يقلدون الطريقة التي يتحدث بها ضحاياهم.

في استطلاع عالمي شمل 7000 شخص في تسع دول، بما في ذلك الولايات المتحدة، قال واحد من كل أربعة أشخاص إنهم إما تعرضوا للاحتيال باستخدام صوت الذكاء الاصطناعي، أو يعرفون شخصًا تعرض للاحتيال بهذه الطريقة.

قال 70% من المشاركين إنهم غير واثقين من قدرتهم على التمييز بين الصوت المستنسخ والصوت الحقيقي.

في غضون ذلك، حذّر المسؤولون الأمريكيون مؤخرًا مرارًا وتكرارًا من تزايد عمليات الاحتيال التي تستهدف الأجداد المسنين. وفي سيناريو شائع، ينتحل المُنتحل شخصية حفيد الضحية الذي يحتاج إلى مال عاجل في وضع صعب.

تتلقى اتصالاً. صوت مذعور على الخط. إنه ابن أخيك. يقول إنه في ورطة كبيرة. حطم سيارته وهو في السجن. لكن يمكنك مساعدته بإرسال المال، هكذا تصف لجنة التجارة الفيدرالية عملية الاحتيال.

وفي التعليقات الواردة أسفل نشرة التحذير الصادرة عن لجنة التجارة الفيدرالية، قال العديد من الأشخاص إن أفراد أسرهم المسنين تعرضوا للاحتيال بهذه الطريقة.

هذه قصة إيدي، البالغ من العمر تسعة عشر عامًا، من شيكاغو. تلقى جده اتصالًا من شخص انتحل شخصيته، قائلًا إنه بحاجة إلى المال لأنه تسبب في حادث سيارة.

وكانت الخدعة مقنعة للغاية لدرجة أن جد إيدي سارع إلى جمع المال وحتى أنه فكر في رهن منزله للحصول على المال قبل اكتشاف الكذبة، وفقًا لتقرير صادر عن شركة ماكافي لابس.

قال هاني فريد، الأستاذ في كلية المعلومات بجامعة كاليفورنيا في بيركلي، لوكالة فرانس برس: "نظرًا لسهولة إنشاء نسخ صوتية واقعية للغاية، فإن أي شخص تقريبًا لديه حضور على الإنترنت معرض للخطر". وأضاف: "هذه الاحتيالات في ازدياد وانتشار".

في أوائل عام ٢٠٢٣، أقرت شركة الذكاء الاصطناعي الناشئة "إيليفن لابس" بإمكانية إساءة استخدام أداة نسخ الصوت الخاصة بها لأغراض خبيثة. وتحديدًا، نشر مستخدم لمنتج الشركة مقطعًا صوتيًا مزيفًا للممثلة إيما واتسون وهي تقرأ سيرة الزعيم النازي الألماني أدولف هتلر "كفاحي".

وقال جال تال هوتشبيرج، كبير مسؤولي التكنولوجيا في شركة رأس المال الاستثماري Team8، لوكالة فرانس برس: "نحن نتحرك بسرعة كبيرة بحيث لا يمكنك الوثوق بكل ما تراه على الإنترنت، لذلك نحتاج إلى تكنولوجيا جديدة لمعرفة ما إذا كان الشخص الذي تتحدث إليه هو حقًا من يقول إنه".

وفقًا لصحيفة VNA/Tin Tuc


[إعلان 2]
رابط المصدر

تعليق (0)

No data
No data

نفس الفئة

صباحات هادئة على شريط الأرض على شكل حرف S
الألعاب النارية تنفجر، والسياحة تتسارع، ودا نانغ تسجل نجاحًا في صيف 2025
استمتع بصيد الحبار الليلي ومشاهدة نجم البحر في جزيرة اللؤلؤ فو كوك
اكتشف عملية صنع أغلى أنواع شاي اللوتس في هانوي

نفس المؤلف

إرث

شكل

عمل

No videos available

أخبار

النظام السياسي

محلي

منتج