Vietnam.vn - Nền tảng quảng bá Việt Nam

שימוש בבינה מלאכותית כדי לתמרן תמונות רגישות למטרות סחיטה.

מתמונה מבוימת שפורסמה ברשתות החברתיות, גורמים זדוניים יכולים להשתמש בבינה מלאכותית (AI) כדי ליצור תמונות מרמזות או אפילו תמונות עירום, או להרכיב פרצופים מציאותיים על סרטונים רגישים כדי להשמיץ או לסחוט את הקורבן.

Báo Tuổi TrẻBáo Tuổi Trẻ17/03/2025

Dùng AI ghép hình ảnh nhạy cảm để tống tiền - Ảnh 1.

גורמים זדוניים יכולים להשתמש בבינה מלאכותית כדי לתמרן תמונות וסרטונים רגישים כדי להשמיץ או לסחוט אחרים - תמונה: ציור של בינה מלאכותית.

בעבר, כשדנו בטכניקה של העלאת פניו של אדם אחד על גופו של אחר, אנשים השתמשו לעתים קרובות בפוטושופ או בתוכנת עריכת תמונות ייעודית אחרת - שהייתה עתירת עבודה והייתה נראית בקלות לעין בלתי מזוינת.

כעת, בעזרת כלי בינה מלאכותית, אנשים יכולים לעשות זאת בקלות רבה תוך "רגעים ספורים", אך זה לא ניתן לזיהוי בקלות בעין בלתי מזוינת.

החלפת פנים בסרטוני סקס לצורך סחיטה.

בשל קשרי עבודה, מר ה. (מנהל עסק בהו צ'י מין סיטי) מקיים אינטראקציה תכופה ברשתות החברתיות.

באחד המקרים, אישה צעירה התיידדה איתו כדי לברר אותו על עבודתו. לאחר זמן מה של שיחה ושיתוף סיפורים על עבודה וחייו האישיים, הם התקרבו מאוד.

היו גם הודעות טקסט רבות בין השניים, מלאות במילות חיבה, יחד עם תמונות שנשלחו הלוך ושוב, ושיחות וידאו כדי שיוכלו לראות זה את פניהם של זה.

יום אחד, מר ה. קיבל שיחה ממישהו שטען שהוא בעלה של הנערה. לאחר "שיחת אזהרה", דרש ה"בעל" שמר ה. יעביר כספי פיצויים או שיסתכן בכך שצילומי מסך של יומני הצ'אט וסרטוני המין שלהם יישלחו לקרובי משפחתו ולשותפיו העסקיים.

אז מר ה. הוצג סרטון סקס שלו ושל האישה השנייה על ידי "בעלו", יחד עם סרטון של שיחת הטלפון שלהם וצילומי מסך של הודעות הטקסט האינטימיות שלהם...

"מעולם לא פגשתי את הבחורה הזאת, אז אני בטוח שסרטון הסקס ערוך", טען מר ה. עם זאת, פניה של הבחורה בסרטון הסקס והבחורה בשיחת הווידאו שלו היו זהות, יחד עם צילומי מסך של הודעות רומנטיות, מה שאילץ את מר ה. להעביר כסף שוב ושוב ל"בעל" כדי להגן על המוניטין שלו.

על פי חקירת העיתון Tuoi Tre , מר ה. היה קורבן להונאה מאורגנת שפעלה לפי תוכנית מתוכננת להפליא. בהונאה זו, מר ה. הוטעה פעמיים על ידי טכנולוגיית דיפפייק. בפעם הראשונה הייתה שיחת וידאו, ובפעם השנייה היה סרטון מיני.

ראוי לציין כי בסרטון הסקס, פניו של מר ה. הוצגו בצורה כה מיומנת עד שהצופים התקשו להאמין שמדובר בסרטון מזויף. מומחה בינה מלאכותית אישר לעיתון Tuổi Trẻ כי העבריין השתמש בכלי בינה מלאכותית חדש המסוגל להציב פנים בצורה מושלמת על סרטונים... ולגרום להם להיראות מציאותיים להפליא.

ישנם אינספור כלים להחלפת פנים של בינה מלאכותית.

כיום ישנם כלים רבים המופעלים על ידי בינה מלאכותית עם תכונות כמו יצירת כל דמות אנושית עם פנים רצויות, או הטמעת פנים רצויות על גופו של אדם אחר.

בין הכלים הללו ישנם כאלה עם תכונות המשרתות מטרות זדוניות, כגון הפיכת תמונות רגילות לתמונות עירום על ידי "הפשטת" האדם שבתמונה, או החלפת פניו של אדם בסרטונים בפנים רצויות...

רוב כלי הבינה המלאכותית הללו מציעים תקופת ניסיון; גרסה בתשלום מספקת פונקציונליות מלאה וזמני טרנספורמציה מהירים מאוד.

לדוגמה, עם התכונה שמחליפה פנים על גופם של אנשים אחרים, משתמשים פשוט מעלים שתי תמונות תואמות ומחכים מספר שניות לתוצאה.

או, בעזרת התכונה של יצירת תמונות עירום מתמונות רגילות, כלי בינה מלאכותית יכולים לעשות זאת במהירות רבה, תוך עשרות שניות בלבד, ולזעזע את הצופים.

אפילו התכונה של החלפת פנים בסרטוני סקס נעשית במהירות רבה על ידי כלי הבינה המלאכותית, ולוקח פחות מדקה עבור סרטונים שאורכם רק כמה שניות.

בשיחה עם עיתון Tuổi Trẻ , מר נגוין קים טו, ראש צוות המחקר והפיתוח בחברת אבטחת הסייבר VNetwork, ניתח את המונח "דיפ-פייק", המתייחס לסרטונים ותמונות מזויפים שנוצרו באמצעות בינה מלאכותית כדי להטעות את הצופים ולגרום להם להאמין שהם אמיתיים.

טכנולוגיית Deepfake משתמשת במודלים של למידה עמוקה כמו רשתות עצביות כדי לנתח נתוני פנים וקול של אדם וליצור תוכן מזויף שנראה בדיוק כמו אותו אדם.

"הודות לאלגוריתמים רבי עוצמה, גורמים זדוניים יכולים להציב את פניהם של קורבנות על סרטונים רגישים (למשל, סרטוני סקס, פורנוגרפיה) או לערוך תמונות כדי ליצור תמונות עירום מזויפות."

"תוכנות ואפליקציות של דיפ-פייק נפוצות מאוד כיום באינטרנט, כולל אפליקציות מובייל, תוכנות קוד פתוח או שירותים מקוונים בחינם – מה שמקל על כל אחד לגשת לכלים ליצירת סרטונים ותמונות מזויפים, ולכן אנשים צריכים להיות ערניים", אמר מר טו.

הימנעו מ"צ'אט מיני".

הונאות רבות מתחילות בהתיידדות עם אנשים באינטרנט ולאחר מכן פיתוי קורבנות ל"צ'אט מיני" או שליחת תמונות רגישות. לכן, משתמשים צריכים בשום אופן לא לשלוח תמונות או סרטונים פרטיים לאנשים שהם מכירים רק באינטרנט, ללא קשר להבטחות או איומים.

זכרו תמיד שכל תוכן שאתם משתפים (אפילו בהודעות פרטיות) עלול להיות מוקלט (צילומי מסך, סרטונים) ולאחר מכן ערוך וישמש נגדכם.

אם אתם מבצעים שיחת וידאו, היזהרו מזרים המציעים תוכן רגיש - זה יכול להיות מסך מזויף או שהם מקליטים אתכם.

מומחי אבטחת סייבר ממליצים למשתמשים להימנע לחלוטין מלסמוך על מישהו על סמך אינטראקציות מקוונות בלבד ולאמת את זהותו וכוונותיו של הצד השני לפני שיתוף מידע רגיש.

בנוסף, אם קיבלתם הודעה או שיחה מאיימת בנוגע לשחרור תמונות "עירום" לצורך סחיטה, אינכם צריכים לפחד או למהר להעביר כסף.

לדברי מומחים, תשלום כסף אינו מבטיח שהמבצעים ימחקו את הסרטון; הם עשויים להמשיך לדרוש עוד או עדיין להעלות את התוכן לרשת.

במקום להיענות לדרישות הפושעים, על המשתמשים לאסוף ראיות (הודעות, מספרי טלפון, חשבונות קשר, תוכן מאיים וכו') ולדווח על כך מיד לתחנת המשטרה הקרובה ביותר או לדווח על האירוע באמצעות אפליקציית VNeID של משרד הביטחון הציבורי לקבלת סיוע בזמן.

כיצד נוכל לזהות אותם?

לדברי מר נגוין קים טו, ההבחנה בין תמונות וסרטונים אמיתיים לבין דיפפייק הופכת לקשה יותר ויותר, אך עדיין ישנם כמה סימני זיהוי וכלים שיסייעו.

משתמשים יכולים לצפות בכך באופן ידני, מכיוון שלעיתים תוכן דיפפייק מכיל אנומליות חזותיות וקוליות.

לדוגמה, תמונה מורכבת עשויה לחשוף פערים ברעש ובצבע בין הפנים לגוף המונחים על גבי זה. סרטון מזויף עשוי להכיל אודיו ווידאו לא תואמים (תנועות שפתיים שאינן תואמות לדיבור) או הבעות פנים שנראות נוקשות ולא טבעיות.

בעבר, חלק מסרטוני העיפ-פייק הראו דמויות שלא ממצמצות, או שהתאורה והצללים על פניהם לא תאמו את הרקע - אלה היו סימנים לכך שהסרטון עבר עריכה.

למרות שהטכנולוגיה משתפרת (לדוגמה, דיפפייקים חדשים הוסיפו תנועות מצמוץ ריאליסטיות), צופים חדי עין עדיין יכולים לזהות כמה פרטים לא הגיוניים בסרטונים ובתמונות.

חוקרים מפתחים כעת אלגוריתמים שונים לזיהוי אוטומטי של עקבות של דיפפייק.

תוכן שנוצר על ידי בינה מלאכותית משאיר לעתים קרובות "טביעת אצבע דיגיטלית" ייחודית על כל פיקסל שהמכונה יכולה לזהות.

לדוגמה, אינטל הציגה את גלאי העיפ-זייקים הראשון בזמן אמת, המסוגל לנתח וידאו ולקבוע האם הדמויות בו הן אנשים אמיתיים או שנוצרו על ידי בינה מלאכותית.

בנוסף, חלק מהאתרים מאפשרים למשתמשים להעלות סרטונים ותמונות כדי לבדוק את האותנטיות שלהם (לדוגמה, Deepware, Sensity AI...). מערכות אלו מתעדכנות כל הזמן כדי להישאר מעודכנות בטכניקות חדשות של דיפ-זייק.

בפרט, משתמשים יכולים לבדוק את המקור וההקשר כאשר הם נתקלים בסרטון או תמונה רגישים, מכיוון שסרטוני דיפפייק רבים מופצים באמצעות חשבונות או בוטים מזויפים ברשתות החברתיות.

"אם תוכן רגיש על אדם מגיע ממקור לא רשמי או מחשבון אנונימי, יש להטיל ספק באותנטיות שלו. ייתכן שכדאי לנסות ליצור קשר ישירות עם האדם המופיע בתוכן כדי לוודא אם הוא אכן עשה זאת."

"יתרה מכך, פרויקטים כמו זה מקדמים את הטמעת מידע האימות (חתימות דיגיטליות) בתמונות ובסרטונים כבר מרגע היצירה, ועוזרים להבחין בין תוכן מקורי לתוכן ערוך. "בעתיד, ייתכן שמשתמשים יוכלו להשתמש בסמני אימות אלה כדי לזהות תוכן אמין", אמר מר טו.

5 טיפים להגנה עצמית

1. הגבילו שיתוף תמונות וסרטונים רגישים ופרטיים (במיוחד תמונות עירום, תמונות משפחתיות ותמונות של ילדים).

2. הגדירו את חשבונות המדיה החברתית שלכם לפרטיים (שתפו רק עם אנשים מהימנים).

3. הימנעו ממסירת מידע אישי רב מדי (שם מלא, מספר טלפון, כתובת וכו') ברשתות החברתיות הציבוריות.

4. הגדירו סיסמאות חזקות והפעילו אימות דו-שלבי עבור החשבונות שלכם כדי למנוע פריצה.

5. חפשו באופן קבוע את שמכם ותמונתכם בגוגל (או השתמשו בכלי חיפוש תמונות הפוך כמו Google Image או TinEye) כדי לראות אם תמונות שלכם פורסמו באופן לא חוקי, ובקשו מיד את הסרתן.

קרא עוד חזרה לדף הבית
מַעֲלָה

מקור: https://tuoitre.vn/dung-ai-ghep-hinh-anh-nhay-cam-de-tong-tien-20250317075948373.htm


תגובה (0)

השאירו תגובה כדי לשתף את התחושות שלכם!

באותה קטגוריה

התפעלו מהכנסיות המרהיבות, מקום צ'ק-אין "סופר לוהט" בעונת חג המולד הזו.
"הקתדרלה הורודה" בת ה-150 שנה זורחת בבהירות בעונת חג המולד הזו.
במסעדת הפו הזו בהאנוי, הם מכינים אטריות פו משלהם תמורת 200,000 וונד, והלקוחות חייבים להזמין מראש.
אווירת חג המולד תוססת ברחובות האנוי.

מאת אותו מחבר

מוֹרֶשֶׁת

דְמוּת

עסקים

כוכב חג המולד בגובה 8 מטרים המאיר את קתדרלת נוטרדאם בהו צ'י מין סיטי בולט במיוחד.

ענייני היום

מערכת פוליטית

מְקוֹמִי

מוּצָר