Vietnam.vn - Nền tảng quảng bá Việt Nam

3 عمليات احتيال في مجال الذكاء الاصطناعي يجب الحذر منها في عام 2024

Báo Thanh niênBáo Thanh niên16/01/2024

[إعلان 1]

وفقًا لـ BGR ، سيكون عام 2024 عامًا حاسمًا للعالم ليدرك ما إذا كان الذكاء الاصطناعي هو مستقبل الحوسبة حقًا أم مجرد هوس عابر. وبينما تتزايد تطبيقات الذكاء الاصطناعي الحقيقية تنوعًا، سيتكشف الجانب المظلم لهذه التقنية من خلال عمليات احتيال لا حصر لها في الأشهر المقبلة.

أصدر خبراء مكافحة الاحتيال في Scams.info قائمة بثلاث عمليات احتيال بالذكاء الاصطناعي ينبغي على الجميع الحذر منها في عام 2024. كقاعدة عامة، احذر من أي شيء مبهرج للغاية، ولكن الحيل التالية تتطلب يقظة خاصة.

احتيال استثماري باستخدام الذكاء الاصطناعي

لقد استثمرت شركات كبرى مثل جوجل ومايكروسوفت وOpenAI ملايين الدولارات في الذكاء الاصطناعي، وستواصل الاستثمار بكثافة هذا العام. سيستغل المحتالون هذه الحقيقة لإغرائك بالاستثمار في فرص مشبوهة. إذا حاول أحدهم على وسائل التواصل الاجتماعي إقناعك بأن الذكاء الاصطناعي سيضاعف عوائد استثمارك، ففكّر مليًا قبل أن تفتح محفظتك.

3 chiêu trò lừa đảo AI cần cảnh giác trong năm 2024- Ảnh 1.

الاستثمارات "الجيدة" منخفضة المخاطر لا وجود لها أبدًا.

يحذر نيكولاس كراوتش من موقع Scams.info قائلاً: "احذر من الاستثمارات التي تعد بعوائد عالية بمخاطر منخفضة، وتأكد من إجراء بحثك قبل استثمار أموالك". كما ينبغي على المستثمرين الجدد الحذر من عروض الإحالة؛ فهي غالبًا ما تكون مخططات هرمية لا يستفيد منها إلا أصحاب الأداء المتميز، ولا يستفيد منها سوى عدد قليل جدًا من المشاركين الآخرين.

انتحال شخصية الأقارب

خدعة انتحال شخصية صديق أو قريب لاقتراض المال ليست جديدة، فتقليد صوت المحتال ليس فعالًا. مع ذلك، مع الذكاء الاصطناعي، ستصبح هذه الخدعة أكثر رعبًا. فمجرد فيديو على يوتيوب أو منشور على فيسبوك بصوت قريب، يستطيع المحتال استخدام الذكاء الاصطناعي لتقليده بدقة. هل يمكنك التمييز بين الاثنين عبر مكالمة هاتفية؟

3 chiêu trò lừa đảo AI cần cảnh giác trong năm 2024- Ảnh 2.

يمكن للذكاء الاصطناعي تقليد صوت من تحب بسهولة

لقطة شاشة من صحيفة واشنطن بوست

وأكد كراوتش أنه "من المهم أن يحمي الأشخاص حساباتهم على وسائل التواصل الاجتماعي لمنع المحتالين من الاستيلاء على أصواتهم ومعلومات عائلاتهم".

استخدام الصوت لتجاوز نظام الأمان

تستخدم بعض البنوك تقنية التعرف على الصوت للتحقق من هوية المستخدمين عند إجراء معاملاتهم عبر الهاتف. وللأسباب المذكورة أعلاه، أصبحت هذه الطريقة أقل أمانًا مما كانت عليه سابقًا. فإذا نشرتَ مقطع فيديو أو مقطعًا صوتيًا بصوتك في أي مكان على الإنترنت، يمكن لأي شخص سيء استخدام هذا المحتوى لنسخ صوتك. وكما يشير كراوتش، لا تزال البنوك تمتلك بيانات أخرى للتحقق من هويات العملاء، لكن هذا التكتيك يُقرّبهم خطوةً أخرى من سرقة حسابك المصرفي.

3 chiêu trò lừa đảo AI cần cảnh giác trong năm 2024- Ảnh 3.

لم تعد أنظمة أمان الصوت آمنة من قوة الذكاء الاصطناعي

يمتلك الذكاء الاصطناعي القدرة على تغيير حياتنا وطريقة تفاعلنا مع أجهزتنا بشكل جذري. وهو أيضًا أحدث أداة يستخدمها المخترقون والمحتالون لمهاجمة المستخدمين. لذا، توخَّ الحذر دائمًا، وابحث جيدًا قبل الانخراط في أي نشاط متعلق بالذكاء الاصطناعي.


[إعلان 2]
رابط المصدر

تعليق (0)

No data
No data

نفس الموضوع

نفس الفئة

قرية مخفية في الوادي في ثانه هوا تجذب السياح لتجربة
مطبخ مدينة هوشي منه يروي قصص الشوارع
فيتنام - بولندا ترسم "سيمفونية من الضوء" في سماء دا نانغ
يُثير جسر ثانه هوا الساحلي الخشبي ضجة بفضل منظر غروب الشمس الجميل كما هو الحال في فو كوك

نفس المؤلف

إرث

شكل

عمل

No videos available

أخبار

النظام السياسي

محلي

منتج