אלו אנשים רעים שמשתמשים בטכנולוגיית בינה מלאכותית (AI) כדי לערוך את פניהם וגופם של אנשים רגילים, להפוך אותם לאנשים עם מוגבלויות, ואז ליצור סיפורים עצובים כדי למכור מוצרים או לקרוא לתמיכה. המטרה היחידה היא לנצל את חמלת הקהילה כלפי רווחים בלתי חוקיים.

טריקים מתוחכמים
מקרה טיפוסי שעורר זעם ציבורי היה ערוץ הטיקטוק NL, שפרסם סדרת סרטונים על אישה עם שתי זרועות קטועות, שמנסה למכור מוצרים באינטרנט כדי לתמוך בילדיה הקטנים. בסרטונים, האישה הופיעה בחדר פשוט, לבושה בבגדים פשוטים, משתמשת בזרועה הקטועה כדי להציג מוצרים, מה שגרם לצופים להרגיש רגשיים ואמפתיים. אנשים רבים לא היססו ללחוץ כדי לעקוב, לשתף באופן נרחב ואף להזמין מוצרים כדי לעזור לאם להתגבר על קשיים. עם זאת, כאשר הסרטונים הפכו ויראליים, הקהילה המקוונת הבינה שזו למעשה תמונה של מוכרת רגילה שעברה עריכה בטכנולוגיית בינה מלאכותית כדי להיראות כמו אדם עם מוגבלות אמיתית.
הטריק של פנייה לרגשות רחמים הפך למלכודת שגורמת לאנשים רבים להעביר כסף או לבצע הזמנות משום שהם מאמינים שהם עוזרים לאדם חלש ומקופח. מר דאנג מין קוואנג, ברחוב נגוק לאם, בו דה וורד ( האנוי ), שיתף: "אמי האמינה בסרטון של אישה עם יד קטועה שמוכרת סחורות, אז היא הצטערה והזמינה כמה מוצרים שנמכרו על ידי אדם זה. כשהיא גילתה את האמת, שהאדם עם מוגבלות היה רק תמונה שנוצרה על ידי בינה מלאכותית, היא הייתה עצובה מאוד ונעלבה."
סיפורה של אמה של קוואנג אינו ייחודי. מאות אחרים הוטעו באופן דומה. כאשר מנוצלים טוב לב, אנשים מאבדים בהדרגה את אמונתם ומהססים לקריאות כנות לעזרה. והתוצאה הכואבת היא שהפגיעים נפגעים קשות באמת. בפייסבוק האישי שלו, נגוין סין שיתף את המקרה של גב' טראן טי נגה (בת 36 במחוז פו טו ) - בעלת הערוץ "נגה טיק קוק" שהיא נכה (בסוף 2024, עקב דלקת שריר הלב חריפה, היא נאלצה לקטוע את שתי זרועותיה ורגליה כדי להציל את חייה), הידועה בקרב אנשים רבים בכך שהיא מעוררת השראה קבועה ברצון האופטימי שלה לחיות. עם זאת, לאחר שצצו מקרים רבים של התחזות לאנשים עם מוגבלויות באמצעות בינה מלאכותית, גב' נגה נחשדה בשימוש בבינה מלאכותית כדי להתחזות לאנשים עם מוגבלויות.
בשידורים חיים אחרונים, גב' נגה התעצבנה פעמים רבות כאשר משתמשי מדיה חברתית ביקשו ממנה שוב ושוב "להרים את ידה" או "לזחול" כדי להוכיח שהיא באמת מוגבלת. בקשות בלתי סבירות ואכזריות אלו פגעו בה עמוקות. סיפורה של "נגה הפעילה" הוא עדות קורעת לב עד כמה מזיקה יכולה להיות התעללות בטכנולוגיה.
מיומנויות זיהוי תוכן מזויף שנוצרו על ידי בינה מלאכותית
על פי משרד הביטחון הציבורי, בשנת 2024, וייטנאם רשמה יותר מ-6,000 מקרי הונאה מקוונים, שגרמו להפסד מוערך של כ-12,000 מיליארד וונד. בתוך 8 חודשים בלבד של 2025, התגלו גם כמעט 1,500 מקרי הונאה מקוונים. מספר זה משקף בבירור את הרמה המסוכנת של פשעי היי-טק בהקשר של ארצנו המונה יותר מ-78 מיליון משתמשי אינטרנט ו-72 מיליון משתמשי רשתות חברתיות. המרחב הקיברנטי הופך לקרקע פורייה לתכסיסי הונאה מתוחכמים יותר ויותר, שבהם השימוש בבינה מלאכותית ליצירת תוכן מזויף הוא האיום הגדול ביותר כיום.
לנוכח מציאות מדאיגה זו, רשויות ומומחי אבטחת סייבר ממליצים שאנשים יצטרכו לצייד את עצמם בידע ובמיומנויות כדי לזהות תוכן מזויף. סגן מזכיר איגוד הנוער של משטרת לונג ביין וורד (האנוי), נגוין נאט הא, ציין כי אנשים צריכים לעקוב באופן קבוע אחר מקורות מידע רשמיים, לעדכן באופן יזום את הידע שלהם בנוגע לטכנולוגיה וצורות חדשות של הונאה. בפרט, עליהם להיות ערניים תמיד ולזכור את העקרונות הבסיסיים, שהם לאמת בקפידה מקורות מידע, לא למסור מידע אישי למקורות לא מאומתים, לא לגשת לקישורים מוזרים ולא להעביר כסף לחשבונות לא מאומתים.
כדי לזהות סרטונים שנוצרו על ידי בינה מלאכותית, על פי מומחי אבטחת סייבר, על המשתמשים להתבונן בקפידה בפרטי התמונה, תנועות הפנים, הגפיים או הצלילים. סימנים כמו עיניים ריקות, תנועות לא טבעיות, דיבור מושהה או תנועות שפתיים לא תואמות הם לרוב סימנים לטכנולוגיית דיפפייק.
בנוסף, בדיקת המידע שפורסם על ידי הערוץ, קריאת תגובות וצפייה בהיסטוריית הפעילות הן גם דרכים פשוטות להעריך אמינות. יחד עם זאת, משתמשים צריכים לפתח את ההרגל לאמת לפני שהם מאמינים. לא משנה כמה סרטון מרגש, אין לשתף אותו או לתמוך בו בחיפזון.
מומחים קראו גם לפלטפורמות המדיה החברתית לחזק את הצנזורה, לזהות תוכן המשתמש בבינה מלאכותית כדי להתחזות לאנשים עם מוגבלויות, ולטפל בקפדנות בחשבונות המפרים את המדיניות. הרשויות צריכות גם לפרסם בקרוב תקנות ברורות לגבי השימוש בתמונות ובתוכן של בינה מלאכותית, על מנת להבטיח שהטכנולוגיה לא תהפוך לכלי להתנהגות לא אתית מצד גורמים פושעים.
מקור: https://hanoimoi.vn/dung-ai-gia-nguoi-khuet-tat-de-truc-loi-canh-giac-chieu-lua-moi-722565.html






תגובה (0)