Vietnam.vn - Nền tảng quảng bá Việt Nam

שימוש בבינה מלאכותית לשילוב תמונות רגישות לצורך סחיטה

מתמונה וירטואלית שפורסמה ברשתות חברתיות, אנשים רעים יכולים להשתמש בכלים של בינה מלאכותית (AI) כדי ליצור תמונות סקסיות, אפילו עירומות, או להכניס פרצופים מציאותיים לסרטונים רגישים כדי להשמיץ ולסחוט את הקורבן.

Báo Tuổi TrẻBáo Tuổi Trẻ17/03/2025

Dùng AI ghép hình ảnh nhạy cảm để tống tiền - Ảnh 1.

אנשים רעים יכולים להשתמש בבינה מלאכותית כדי לשלב תמונות וסרטונים רגישים כדי להשמיץ ולסחוט אחרים - תמונה: ציור של בינה מלאכותית

בעבר, כשדיברו על טכניקת גזירה והדבקה של פנים של אדם אחד על גופו של אדם אחר, אנשים השתמשו לעתים קרובות בפוטושופ או בתוכנת עריכת תמונות ייעודית - שהיא מייגעת וניתנת לזיהוי בקלות לעין בלתי מזוינת.

כעת, בעזרת כלי בינה מלאכותית, אנשים יכולים לעשות זאת בקלות רבה ב"כמה הערות", אך לא קל לזהות זאת בעין בלתי מזוינת.

סרטון סקס של החלפת פנים לצורך סחיטה

בשל קשרי עבודה, מר ה. (מנהל עסק בהו צ'י מין סיטי) מקיים אינטראקציה לעתים קרובות ברשתות חברתיות.

פעם אחת, הוא התיידד עם בחורה צעירה ששאלה אותו על עבודתו. לאחר זמן מה של שאילת שאלות אחד על השני, שיחה, שיתוף על עבודה וחייו האישיים, השניים נראו די קרובים זה לזה.

היו גם הרבה הודעות טקסט בין השניים עם מילות חיבה מאוד, יחד עם תמונות שנשלחו הלוך ושוב, ושיחות וידאו כדי להיפגש.

יום אחד, מר ה. קיבל לפתע שיחת טלפון מגבר שטען שהוא בעלה של הנערה. לאחר פעולה "מנעת" נגד מר ה., דרש ה"בעל" ממנו להעביר כספי פיצויים, אחרת ישלח תמונות מהשיחות וסרטוני המין שלהם לקרוביו ולשותפיו העסקיים.

אז מר ה. הוצג על ידי "בעלו" סרטון סקס שלו ושל הנערה השנייה, יחד עם שיחת וידאו ביניהם, והודעות טקסט אינטימיות שצולמו...

"מעולם לא פגשתי את הנערה הזאת, אז אני בטוח שסרטון הסקס הוא תמונה שעברה פוטושופ", אישר מר ה'. עם זאת, תמונת פניה של הנערה בסרטון הסקס והתמונה של הנערה בשיחת הווידאו שלו זהות, יחד עם תמונה של הודעת הטקסט החיבה, מה שמאלץ את מר ה' להעביר כסף ל"בעלה" פעמים רבות כדי לשמור על המוניטין שלו.

באמצעות חקירתו של טואי טרה , מר ה. הוטעה באופן מאורגן על פי תרחיש מושלם. בהונאה זו, מר ה. הוטעה פעמיים על ידי דיפפייק. בפעם הראשונה הייתה שיחת וידאו ובפעם השנייה היה סרטון סקס.

ראוי לציין שבסרטון הסקס, פניו של מר ה. הושתלו בצורה כה מיומנת עד שהצופים התקשו להאמין שמדובר בסרטון של השתלת פנים. מומחה בינה מלאכותית אישר לטואי טרה שהרשעים השתמשו בכלי בינה מלאכותית חדש שיכול להשתיל פנים לסרטונים בצורה מושלמת... כמו פנים אמיתיות.

כלי בינה מלאכותית להחלפת פנים בשפע

כיום קיימים כלי אפליקציה רבים של בינה מלאכותית הכוללים תכונות כמו יצירת פנים רצויות לכל אדם, ומיזוג הפנים הרצויות לגופו של אדם אחר.

ביניהם, ישנם כלים עם תכונות שמשרתות מטרות רעות כמו הפיכת תמונות רגילות לתמונות עירום על ידי "הפשטת" האדם שבתמונה, או החלפת פניו של אדם בסרטונים בפנים רצויות...

רוב כלי הבינה המלאכותית הללו זמינים לניסיון, אך תשלום עבורם יעניק לכם את כל התכונות עם זמן טרנספורמציה מהיר מאוד.

לדוגמה, עם תכונת השיחות פנים אל גוף, המשתמשים צריכים רק להעלות שתי תמונות תואמות ולהמתין מספר שניות לתוצאות.

או בעזרת התכונה של יצירת תמונות עירום מתמונות רגילות, כלי הבינה המלאכותית יכול לעשות זאת במהירות רבה, תוך כמה עשרות שניות בלבד, ולגרום לצופים להיבהל.

אפילו את התכונה של החלפת פנים בסרטוני סקס, כלי הבינה המלאכותית עושה זאת במהירות רבה, ולוקח פחות מדקה לסרטונים שאורכם כמה שניות.

בשיחה עם טואי טרה , מר נגוין קים טו, ראש צוות המחקר והפיתוח של חברת אבטחת הסייבר VNetwork, ניתח את המונח דיפ-פייק, המתייחס לסרטונים ותמונות מזויפים שנוצרו באמצעות בינה מלאכותית כדי לגרום לצופים לחשוב שהם אמיתיים.

טכנולוגיית Deepfake משתמשת במודלים של למידה עמוקה כמו רשתות עצביות כדי לנתח נתוני פנים וקול של אדם וליצור תוכן מזויף שנראה בדיוק כמו אותו אדם.

"הודות לאלגוריתמים רבי עוצמה, פושעים יכולים להכניס את פני הקורבן לסרטונים רגישים (לדוגמה, סרטוני "מיטה", פורנו) או לערוך תמונות כדי ליצור תמונות עירום מזויפות."

"תוכנות ואפליקציות של דיפפייק פופולריות מאוד כיום באינטרנט, אפילו עם אפליקציות מובייל, קוד פתוח או שירותים מקוונים בחינם - מה שמקל על כל אחד לגשת לכלים ליצירת סרטונים ותמונות מזויפים, ולכן אנשים צריכים להיות ערניים", אמר מר טו.

הימנעו מ"צ'אט מיני"

הונאות רבות מתחילות ביצירת חברים באינטרנט ולאחר מכן הטעיית הקורבן ל"צ'אט מיני" או שליחת תמונות רגישות. לכן, משתמשים לעולם לא צריכים לשלוח תמונות או סרטונים פרטיים לאנשים שהם פוגשים רק באינטרנט, לא משנה אילו הבטחות או איומים הם מבטיחים.

זכרו תמיד שכל תוכן ששותף (אפילו בהודעות פרטיות) יכול להיות מוקלט (צילום מסך, וידאו) ולאחר מכן ערוך וישמש נגדכם.

אם אתם מקיימים שיחת וידאו, היזהרו מזרים שמבקשים תוכן רגיש - זה יכול להיות מסך מזויף או שהם מקליטים.

מומחי אבטחת סייבר ממליצים למשתמשים לא לסמוך על אף אחד רק באמצעות קשר מקוון, ולאמת את זהותו וכוונותיו של האדם האחר לפני שיתוף מידע רגיש.

חוץ מזה, אם אתם מקבלים הודעת טקסט או שיחה המאיימת לשחרר תמונות "לוהטות" לצורך סחיטה, משתמשים לא צריכים לפחד או למהר להעביר כסף.

תשלום אינו מבטיח שהרשעים ימחקו את הסרטון; הם עשויים להמשיך לדרוש עוד או לפרסם את התוכן באינטרנט בכל מקרה, אומרים מומחים.

במקום לציית לבקשות הפושעים, על המשתמשים לאסוף ראיות (הודעות, מספרי טלפון, חשבונות קשר, תוכן מאיים...) ולדווח מיד לסוכנות המשטרה הקרובה ביותר או לדווח על האירוע באמצעות אפליקציית VNeID של משרד הביטחון הציבורי לקבלת תמיכה בזמן.

איך לזהות?

לדברי מר נגוין קים טו, ההבחנה בין תמונות וסרטונים אמיתיים לבין דיפפייקס הופכת לקשה יותר ויותר, אך עדיין ישנם כמה סימני זיהוי וכלים תומכים.

משתמשים יכולים לצפות באופן ידני, מכיוון שלתוכן דיפפייק יש לפעמים חריגות בתמונה ובצליל.

לדוגמה, תמונה מורכבת עשויה להראות הבדלי רעש או צבע בין הפנים המורכבות לגוף. סרטון מזויף עשוי להכיל אי-התאמות באודיו ובווידאו (תנועות שפתיים שאינן תואמות לדיבור) או הבעות פנים שנראות נוקשות ולא טבעיות.

בעבר, חלק מסרטוני הדיפ-פייק גרמו לדמויות לא למצמץ, או שהתאורה והצללים על הפנים לא תאמו את ההקשר - שהיו סימנים לכך שהסרטון עבר עריכה.

למרות שהטכנולוגיה משתפרת (לדוגמה, דיפפייקים חדשים הוסיפו תנועות מצמוץ ריאליסטיות בעיניים), צופים רציניים עדיין יכולים לזהות כמה פרטים לא הגיוניים בסרטונים ובתמונות.

חוקרים מפתחים כעת אלגוריתמים רבים לזיהוי אוטומטי של עקבות דיפפייק.

תוכן שנוצר על ידי בינה מלאכותית משאיר לעתים קרובות "טביעת אצבע דיגיטלית" ייחודית בכל פיקסל שמכונות יכולות לזהות.

לדוגמה, אינטל הציגה את גלאי העיפ-זייקים הראשון בזמן אמת, המסוגל לנתח סרטונים ולקבוע האם הדמויות בהם הן אנשים אמיתיים או שנוצרו על ידי בינה מלאכותית.

בנוסף, חלק מהאתרים מאפשרים למשתמשים להעלות סרטונים ותמונות כדי לבדוק את האותנטיות של התמונות (לדוגמה, כלי Deepware, Sensity AI...). מערכות אלו מתעדכנות כל הזמן כדי להישאר מעודכנות בטכניקות חדשות של דיפפייקים.

בפרט, משתמשים יכולים לבדוק את מקור הפוסט וההקשר כאשר הם נתקלים בסרטון או תמונה רגישים, מכיוון שסרטוני דיפפייק רבים מופצים באמצעות חשבונות או בוטים מזויפים ברשתות חברתיות.

אם תוכן רגיש על אדם מגיע ממקור לא רשמי או מחשבון אנונימי, היו ספקנים לגבי האותנטיות שלו. ייתכן שתרצו לנסות ליצור קשר ישירות עם האדם המופיע בתוכן כדי לוודא שהוא אכן עשה זאת.

בנוסף, פרויקטים כמו [שם החברה] מקדמים הטמעת מידע אימות (חתימות דיגיטליות) בתמונות ובסרטונים כבר מרגע היצירה, מה שעוזר להבחין בין תוכן מקורי לתוכן ערוך. "בעתיד, משתמשים יוכלו להשתמש בסימני אימות אלה כדי לזהות תוכן אמין", אמר מר טו.

5 הערות להגנה עצמית

1. הגבלת שיתוף של תמונות וסרטונים רגישים ופרטיים (במיוחד תמונות עירום, תמונות משפחתיות, תמונות ילדים).

2. הגדירו את חשבונות המדיה החברתית שלכם לפרטיים (שתפו רק עם אנשים מהימנים).

3. אל תספקו יותר מדי מידע אישי (שם מלא, מספר טלפון, כתובת...) ברשתות חברתיות ציבוריות.

4. הגדירו סיסמאות חזקות והפעילו אימות דו-שלבי עבור החשבונות שלכם כדי להימנע מפריצה.

5. חפשו באופן קבוע את שמכם ותמונה שלכם בגוגל (או השתמשו בכלי חיפוש תמונות הפוך כמו Google Image, TinEye) כדי לראות אם תמונות שלכם פורסמו ללא רשות, ובקשו מיד את הסרתן.

קרא עוד חזרה לנושאים
מַעֲלָה

מקור: https://tuoitre.vn/dung-ai-ghep-hinh-anh-nhay-cam-de-tong-tien-20250317075948373.htm


תגובה (0)

No data
No data

באותה קטגוריה

אבוד בציד עננים בטא שוה
יש גבעה של פרחי סים סגולים בשמי סון לה
פנס - מתנה לזכרו של פסטיבל אמצע הסתיו
טו הוא – ממתנת ילדות ליצירת אמנות של מיליון דולר

מאת אותו מחבר

מוֹרֶשֶׁת

;

דְמוּת

;

עֵסֶק

;

No videos available

אירועים אקטואליים

;

מערכת פוליטית

;

מְקוֹמִי

;

מוּצָר

;