وفقًا لموقع TechRadar ، يُقدم تطور تقنية الذكاء الاصطناعي العديد من المزايا، ولكنه يُحتمل استغلاله لأغراض خبيثة. ويُحذر الخبراء من تزايد عمليات الاحتيال الهاتفي باستخدام أصوات الذكاء الاصطناعي، التي تتمتع بقدرة مذهلة على تقليد الأصوات البشرية الحقيقية.
يأتي صعود الذكاء الاصطناعي مصحوبًا بمخاطر احتيال متطورة
الصورة: لقطة شاشة من TECHRADAR
تزايد عمليات الاحتيال الصوتي باستخدام الذكاء الاصطناعي
ببضع ثوانٍ فقط من التسجيلات الصوتية المأخوذة من مواقع التواصل الاجتماعي، يستطيع المجرمون إنشاء نسخ صوتية بتقنية الذكاء الاصطناعي لأقارب الضحية وأصدقائه وحتى المشاهير. يستخدمون هذه التقنية لإجراء مكالمات آلية، وانتحال شخصيات معارفهم للاحتيال وسرقة الممتلكات.
من الأساليب الشائعة انتحال شخصية أحد أفراد العائلة المتعثرين، أو من يحتاج إلى مال عاجل، أو انتحال شخصية موظف بنك أو جهة حكومية لطلب معلومات شخصية أو معلومات عن حساباتهم. ينصح الخبراء المستخدمين بتوخي الحذر الشديد من المكالمات غير المألوفة، أو طلبات تحويل الأموال، أو تقديم معلومات حساسة.
لحماية أنفسهم، يجب على المستخدمين:
- قم بإعداد "كلمة مرور" خاصة مع أحد أحبائك: قم بالاتفاق على عبارة سرية مع أحد أحبائك أو صديق، لاستخدامها لتأكيد الهوية عند الحاجة.
- اطرح سؤالاً اختباريًا: اطلب من المتصل تأكيد المعلومات التي يعرفها كل منكما فقط.
- استمع بعناية إلى الصوت: ابحث عن أي تشوهات، مثل التنغيم والعواطف غير الطبيعية.
- التحقق من المكالمة: قم بإغلاق الهاتف ثم اتصل بالشخص مرة أخرى باستخدام رقم هاتفه المحمول.
- كن حذرًا من الطلبات غير المعتادة، وخاصة طلبات التحويلات المالية العاجلة.
- تعرف على عملية التواصل الخاصة بالبنك وفهم كيفية تواصل البنك مع العملاء.
تُثير هذه الحادثة مجددًا ناقوس الخطر بشأن المخاطر المحتملة لتكنولوجيا الذكاء الاصطناعي عند استغلالها لأغراض خبيثة. ينبغي على المستخدمين توعية أنفسهم وتزويد أنفسهم بالمعرفة اللازمة لحماية أنفسهم من هذه الأشكال الجديدة والمعقدة من الاحتيال.
[إعلان 2]
المصدر: https://thanhnien.vn/lua-dao-bang-giong-noi-ai-tang-manh-va-cach-phong-chong-185241125092848927.htm
تعليق (0)