זיופים עמוקים מהווים כעת דאגה מרכזית, שכן מספר ההונאות המשתמשות בטכנולוגיה זו ממשיך לעלות.
לאחר מחקר בפורומים של הדארקנט, שם פועלים פושעי סייבר לעתים קרובות, מומחי אבטחה גילו כי פושעים רבים משתמשים בתוכנות דיפפייק להונאה, עד כי הביקוש עולה בהרבה על היצע תוכנות הדיפפייק הזמינות כיום בשוק.
ככל שהביקוש עולה על ההיצע, מומחי קספרסקי צופים גל של הונאות Deepfake, בשיטות מגוונות ומתוחכמות יותר ויותר: החל מאספקת סרטוני התחזות באיכות גבוהה ועד לשימוש בתמונות של ידוענים בשידורים חיים מזויפים ברשתות החברתיות, תוך הבטחה להכפיל את כמות הקורבנות ששלחו להן.
על פי מערכת המידע של Regula, 37% מהעסקים ברחבי העולם חוו הונאות דיפפייק מבוססות קול, ו-29% הפכו לקורבנות של הונאות דיפפייק מבוססות וידאו.
טכנולוגיה זו הפכה לאיום על אבטחת הסייבר של וייטנאם, שם פושעי סייבר משתמשים לעתים קרובות בשיחות וידאו מזויפות כדי להתחזות לאנשים פרטיים על מנת ללוות כסף מקרובי משפחה וחברים.
שיחת וידאו באמצעות דיפפייק יכולה להימשך רק דקה, מה שמקשה מאוד על הקורבנות להבחין בין שיחה אמיתית לשיחה מזויפת.
זיופים עמוקים הופכים בהדרגה ל"סיוט" בהונאות מקוונות מתוחכמות.
" זיוף עמוק (Deepfakes) הפכו לסיוט עבור נשים ועבור החברה. פושעי סייבר מנצלים בינה מלאכותית (AI) כדי להטמיע את פניהם של קורבנות על תמונות וסרטונים פורנוגרפיים, כמו גם בקמפיינים תעמולתיים."
"צורות מניפולציה אלו נועדו לשלוט בדעת הקהל על ידי הפצת מידע שגוי, ואף לפגוע במוניטין של ארגונים או יחידים", אמרה גב' וו דונג טו דיאם, מנהלת אזורית של קספרסקי וייטנאם.
למרות שפושעים מנוצלים לרעה באמצעות בינה מלאכותית למטרות זדוניות, אנשים פרטיים ועסקים עדיין יכולים להשתמש בבינה מלאכותית כדי לזהות זיופים עמוקים, ובכך להפחית את הסבירות להונאות מוצלחות.
בהתאם לכך, למשתמשים יהיו מספר פתרונות שימושיים כדי להגן על עצמם מפני הונאות, כגון שימוש בתוכנת זיהוי תוכן שנוצרה על ידי בינה מלאכותית (המשתמשת באלגוריתמים מתקדמים כדי לנתח ולקבוע את מידת עריכת התמונות/סרטונים/אודיו).
עבור סרטוני דיפפייק, קיימים כיום כלים המסייעים בזיהוי תנועות לא תואמות בין הפה לדיבור. חלק מהתוכנות אף "חזקות" מספיק כדי לזהות זרימת דם חריגה מתחת לעור על ידי ניתוח רזולוציית הווידאו, מכיוון שכאשר הלב שואב דם, הוורידים בגופו של אדם משנים צבע.
בנוסף, סימני מים משמשים כסימני זיהוי בתמונות, בסרטונים וכו', ועוזרים ליוצרים להגן על זכויות היוצרים של מוצרי הבינה המלאכותית שלהם. תכונה זו יכולה להפוך לנשק נגד דיפפייקס מכיוון שהיא מסייעת להתחקות אחר מקור הפלטפורמה שיצרה את הבינה המלאכותית. משתמשים בעלי ידע טכנולוגי יכולים למצוא דרכים להתחקות אחר מקור התוכן כדי להשוות כיצד הנתונים המקוריים שונו על ידי הבינה המלאכותית.
כיום, טכנולוגיות מתפתחות משתמשות באלגוריתמי הצפנה כדי להכניס ערכי גיבוב במרווחי זמן קבועים בתוך הסרטון. אם הסרטון עבר עריכה, ערך הגיבוב ישתנה, מה שיאפשר למשתמשים לוודא האם התוכן טופל.
בעבר, היו כמה הנחיות למציאת אנומליות בסרטונים, כגון עיוות צבע, תנועות שרירים לא טבעיות, תנועות עיניים וכו'. עם זאת, ככל שהבינה המלאכותית הופכת לחכמה יותר ויותר, ערכים אלה לא תמיד מניבים תוצאות מדויקות.
תהליך אימות אמינותם של סרטונים אינו מסתמך עוד על בדיקה ויזואלית, אלא דורש כלים טכנולוגיים שנועדו למנוע ולזהות תוכן מזויף.
חאן לין
[מודעה_2]
מָקוֹר






תגובה (0)