ב-12 ביוני ציטטו רשת NBC News אזהרה של ה-FBI לפיה נוכלים - במיוחד פושעי היי-טק - משתמשים בבינה מלאכותית (AI) כדי ליצור סרטונים פורנוגרפיים או תמונות מזויפות של קורבנות, ולאחר מכן מבקשים מהם לשלם כדי למנוע את הפצתם באינטרנט.
השיטה נקראת דיפפייק - טכניקה המשלבת למידה עמוקה ואלגוריתמים של למידת מכונה כדי ליצור סרטונים, תמונות או צלילים מזויפים מציאותיים. כלי זה הפך פופולרי בשנים האחרונות והוא הולך וגדל.
איור: מגזין העסקים AZ
באזהרה מ-12 ביוני, מסר ה-FBI כי קיבל תלונות הולכות וגדלות על פושעים המשתמשים בכלי דיפ-פייק כדי ליצור סרטונים ותמונות פורנוגרפיים מזויפים לצורך סחיטה.
פושעים מצלמים תמונות וסרטונים של קורבנות ברשתות החברתיות. לאחר יצירת מוצרים מזויפים, הם מפיצים אותם ברשתות החברתיות, בפורומים ציבוריים או באתרים פורנוגרפיים.
על פי ה-FBI, קורבנות נאלצים לשלם כסף, כרטיסי מתנה או אפילו תמונות "סקס" או שסרטונים ותמונות מזויפים שלהם יפוצו. במקביל, נוכלים מאיימים לשלוח אותם למשפחתם ולחבריהם של הקורבנות אם לא יצייתו להוראות.
חקירה של NBC News במרץ מצאה כי מוצרי פורנו מזויפים נגישים בקלות באמצעות חיפוש מקוון ופלטפורמות צ'אט.
נשיא מרכז המשאבים לגניבת זהויות (ITRC), עמותה המסייעת לקורבנות הונאה, אומר שלעיתים פושעים מנסים לזעזע את הקורבנות באמצעות סרטונים או תמונות רגישים במיוחד. לאחר שהקורבן נכנס לפאניקה, הוא פשוט ירצה שהסרטון או התמונה ייעלמו, מה שאומר להיכנע לדרישות הנוכלים.
ה-FBI ממליץ לאנשים לנקוט משנה זהירות בעת קבלת בקשות חברות מזרים ולהבין כי מענה לבקשות של פושעים בעלי אופי דיפפייק אינו אומר שהם לא יפיצו סרטונים או תמונות מיניות מפורשות שלהם.
המרכז הלאומי לילדים נעדרים ומנוצלים הציע שירות חינמי בשם "Take It Down" כדי לסייע במניעת הפצת סרטונים או תמונות רגישים של ילדים מתחת לגיל 18.
[מודעה_2]
מָקוֹר
תגובה (0)