Vietnam.vn - Nền tảng quảng bá Việt Nam

احذروا من "المحتالين الاصطناعيين"

Báo Văn HóaBáo Văn Hóa13/10/2023

[إعلان 1]

توم هانكس يحذر من الصور المزيفة التي يتم إنشاؤها بواسطة الذكاء الاصطناعي على حسابه الشخصي على إنستغرام

وفقًا لصحيفة الغارديان ، حذّر الممثل توم هانكس معجبيه من أن صورته في إعلان طب أسنان حديث مزيفة ومُصممة باستخدام الذكاء الاصطناعي. ونشر نجم فيلم "فورست غامب" على إنستغرام لمتابعيه البالغ عددهم 9.5 مليون متابع: "انتبهوا! هناك فيديو إعلان طب أسنان يعرض صورة لي مُصممة بتقنية الذكاء الاصطناعي. لا علاقة لي بهذا المشروع".

في رسالة بريد إلكتروني إلى صحيفة نيويورك تايمز ، لم يُعلّق متحدث باسم ميتا، الشركة الأم لإنستغرام، مباشرةً على الإعلان، لكنه قال إن عرض إعلانات تستخدم صور المشاهير لأغراض خادعة يُخالف سياسات مجتمعنا. وأضاف المتحدث: "لقد خصصنا موارد كبيرة للتصدي لهذه الأنواع من عمليات الاحتيال، وحسّنا إجراءات إنفاذنا بشكل ملحوظ، بما في ذلك تعليق وإزالة الحسابات والصفحات والإعلانات التي تُخالف سياساتنا".

في السابق، كان مارك زوكربيرج، الرئيس التنفيذي لشبكة التواصل الاجتماعي الشهيرة فيسبوك، ضحيةً لهذه التقنية. فمن خلال خطابٍ بسيطٍ له، أنتجت تقنية الذكاء الاصطناعي فيديو يتضمن اعترافًا بأن فيسبوك سرقت بيانات المستخدمين وتحكمت في المستقبل. ورغم أن صوت الذكاء الاصطناعي الذي يُقلّد السيد مارك زوكربيرج في هذا الفيديو ليس مشابهًا جدًا، إلا أنه لا يزال من الصعب جدًا تمييزه.

في الولايات المتحدة، ظنّت أمٌّ أن ابنتها اختُطفت على يد رجلٍ بسبب صوتٍ مزيفٍ عبر الهاتف، بدا حقيقيًا للغاية. سمعت جينيفر ديستيفانو، من أريزونا، ابنتها تبكي على الهاتف قائلةً: "أمي، أرجوكِ أنقذيني"، قبل أن يقاطعها رجلٌ ويطالب بفدية. كانت الأم على يقينٍ تامٍّ بأن ابنتها، التي كانت تتزلج، قد اختُطفت. قالت: "لم أسأل حتى من هو. كان صوتها. هكذا كانت تبكي، لذلك لم أشك في شيء". استخدم المحتال رقم هاتفٍ مجهول وطلب منها دفع فديةٍ تصل إلى مليون دولار. انكشفت عملية الاحتيال هذه بعد دقائقٍ فقط من اتصال السيدة ديستيفانو بابنتها. وتُجري الشرطة تحقيقًا في القضية، وهي تعكس خطر استغلال مجرمي الإنترنت لقدرات الذكاء الاصطناعي في توليد الأصوات.

مؤخرًا، حُكم على محتال يُدعى جيلبرت شيكلي بتهمة انتحال شخصية وزير الخارجية الفرنسي جان إيف لودريان لطلب فدية من أثرياء ومديري شركات لتحرير رهائن فرنسيين في سوريا. كما زُرع وجه المراسلة رنا أيوب (الهند) في مقاطع فيديو إباحية، ثم استخدم المجرمون هذه المقاطع المزيفة لابتزازها.

أصدرت شركة مكافي الأمريكية للأمن السيبراني مؤخرًا استطلاعًا بعنوان "المقلدون الاصطناعيون"، أظهر أن الكثيرين لا يستطيعون التمييز بين الأصوات الحقيقية والمزيفة. وشمل الاستطلاع 7054 شخصًا من 9 دول، منها الولايات المتحدة والهند، وأظهر أن الكثيرين وقعوا ضحايا أو على دراية بحالات خداع باستخدام تقنية توليد الأصوات بالذكاء الاصطناعي. وأقر حوالي 70% منهم بعدم ثقتهم في التمييز بين الأصوات الحقيقية والمُولّدة بالذكاء الاصطناعي.

وفقًا لرويترز ، أيّد الأمين العام للأمم المتحدة أنطونيو غوتيريش مقترحًا قدّمه بعض قادة شركات الذكاء الاصطناعي لإنشاء هيئة دولية للإشراف على الذكاء الاصطناعي. وقال: "إنّ ناقوس الخطر بشأن أحدث أشكال الذكاء الاصطناعي، الذكاء الاصطناعي التوليدي، يُدقّ بأعلى صوت من قِبَل مطوّريه. يجب أن نأخذ هذه التحذيرات على محمل الجد". كما أعلن عن خطط لإنشاء هيئة استشارية رفيعة المستوى للذكاء الاصطناعي هذا العام.

وفقًا لمجلة Organizer ، قال السيد وسيم خالد، الرئيس التنفيذي لشركة Blackbird.AI (الولايات المتحدة الأمريكية)، إن تقنية الذكاء الاصطناعي لتقليد الأصوات أصبحت الآن شبه مستحيلة التمييز بينها وبين الأصوات الحقيقية. وأضاف: "هذا يُساعد المحتالين على الحصول على الأموال والمعلومات من الضحايا بفعالية أكبر".

قال البروفيسور هاني فريد من جامعة كاليفورنيا (الولايات المتحدة الأمريكية)، محذراً من أن عمليات الاحتيال هذه أصبحت أكثر شيوعاً، "لقد أصبح من السهل الآن إنشاء صوت يبدو واقعياً لدرجة أن أي شخص تقريباً لديه حضور على الإنترنت يمكن أن يصبح ضحية".

يعتقد غال تال-هوشبرغ، خبير التكنولوجيا في شركة Team8 الإسرائيلية للأمن السيبراني، أننا نقترب بسرعة من مرحلة لا يمكننا فيها الوثوق بكل ما نراه على الإنترنت. وقال: "سنحتاج إلى تقنيات جديدة للتأكد من أن الشخص الذي تتحدث إليه هو نفسه".

تاي آن


[إعلان 2]
مصدر

تعليق (0)

No data
No data

نفس الفئة

صباحات هادئة على شريط الأرض على شكل حرف S
الألعاب النارية تنفجر، والسياحة تتسارع، ودا نانغ تسجل نجاحًا في صيف 2025
استمتع بصيد الحبار الليلي ومشاهدة نجم البحر في جزيرة اللؤلؤ فو كوك
اكتشف عملية صنع أغلى أنواع شاي اللوتس في هانوي

نفس المؤلف

إرث

شكل

عمل

No videos available

أخبار

النظام السياسي

محلي

منتج