מה דעתך על המגמה של האקרים ש"משתמשים" בבינה מלאכותית לביצוע מתקפות סייבר והונאות?
ד"ר נגוין טואן קאנג: על פי מדד מודיעין האיומים של X-Force לשנת 2024 של IBM, אסיה- פסיפיק , כולל וייטנאם, הוא האזור שיסבול מהכי הרבה מתקפות סייבר בעולם בשנת 2023. מתוכם, הייצור הוא התעשייה שנפגעת הכי הרבה ממתקפות סייבר.
השיטה העיקרית של הרעים עדיין היא מתקפות פישינג המכוונות לאנשים פגיעים וניצול נקודות תורפה להתקנת תוכנות זדוניות. בנוסף, המגמה המתפתחת בשנת 2024 היא מתקפות סייבר הכוללות בינה מלאכותית (AI).
הדו"ח של Wired מציין כי אנשים רעים רבים משתמשים בבינה מלאכותית גנרטיבית כדי לסייע בהכוונת פריצות, ליצור צ'אטבוטים הונאה, או ליצור תמונות וסרטונים דיפפייק המחקים את פניהם וקולותיהם של אנשים אחרים.
עם זאת, לצד מגמה זו, מערכות אבטחת מידע מתחילות לשלב גם תכונות של בינה מלאכותית, כמו WatsonX. בינה מלאכותית יכולה להיות מנוצלת, אך יכולה גם להחליף בני אדם בניתוח, ניטור, זיהוי מספרים, חיזוי תרחישי תקיפה, ובכך לשפר את יכולות ההגנה ולמזער סיכוני אבטחת מידע.
הונאות דיפפייק הופכות נפוצות יותר ויותר. עם ההתפתחות המהירה של הבינה המלאכותית, עד כמה מסוכנות יהיו התקפות אלו בעתיד?
ד"ר נגוין טואן קאנג: בעיקרון, דיפפייק היא טכנולוגיה שעוזרת להאקרים ליצור זהויות דיגיטליות מזויפות, ובכך להתחזות לאחרים. דיפפייק יהווה בעיה מסוכנת מכיוון שהטכנולוגיה הזו הופכת מתוחכמת יותר ויותר.
כדי להילחם ב-Deepfake, הדבר הראשון שצריך לעשות הוא לקבוע האם התמונה או הקול של אדם נוצרו על ידי בינה מלאכותית. נכון לעכשיו, אין כלי אוניברסלי שיכול לזהות Deepfakes באופן מיידי, מכיוון שתוקפים מפתחים כל הזמן מודלים חדשים.
בנוסף לזיהוי דיפפייק, קיימת טכניקה נוספת להתמודדות עמו, והיא שימוש בטכנולוגיה לניתוח התנהגות. מנקודת מבט ארגונית ועסקית, יש צורך לפתח מערכת המשלבת את שתי הטכניקות הללו.
לאחרונה, היו מתקפות סייבר בהן האקרים שתלו בסתר תוכנות זדוניות במערכת של החברה. התוכנות הזדוניות אורבות ומנתחות את כל הפעילויות, ובכך יוצרות זהות בדויה לביצוע כוונות זדוניות. עם פיתוח טכנולוגיית Deepfake, בשילוב עם היכולת ליצור סרטונים שנוצרו על ידי בינה מלאכותית, סוגים אלה של מתקפות יהיו מסוכנות הרבה יותר בעתיד.
עם ההסלמה של מתקפות סייבר מסוג Deepfake, כיצד נוכל להגן על קשישים, ילדים וקבוצות פגיעות אחרות מפני נוכלים?
ד"ר נגוין טואן קאנג: קשישים וילדים מותקפים לעתים קרובות על ידי נוכלים באמצעות טכניקה הנקראת הנדסה חברתית. זהו מונח המתאר התקפות באמצעות מניפולציה של התנהגות אנושית.
האקרים יכולים כעת להשתמש בבינה מלאכותית בשילוב עם איסוף, כריית וניתוח נתונים כדי לזהות אנשים שעלולים להיות מוונצים ולאחר מכן למצוא דרכים לתקוף. בנוסף להעלאת המודעות בקהילה, עלינו גם לקבל את העובדה שיתרחשו מצבים שבהם משתמשים מוונצים, ועלינו להשתמש בטכנולוגיה כדי לזהות ולמנוע זאת.
לאחרונה, אירע מקרה בו עובד בנק חשד שאישה מבוגרת שהגיעה להעביר כסף הראו סימנים של הונאה. אדם זה עצר מיד את העסקה ודיווח עליה לרשויות. מערכות ה-IT של הבנקים מצוידות כיום בטכנולוגיה שתחליף בני אדם במשימות כאלה.
תפקידה של הטכנולוגיה הוא שגם אם ידוע שהשולח הוא האדם האמיתי, המערכת עדיין תעצור את ההעברה אם יתעורר חשד שהעסקה מנוהלת על ידי מישהו אחר. כלים כאלה נקראים מערכות למניעת הונאות.
האם הגיע הזמן שווייטנאם תטיל סנקציות על ניהול בינה מלאכותית, ותשלב מחקר, פיתוח ושימוש בבינה מלאכותית במסגרת?
ד"ר נגוין טואן קאנג: נושא ניהול הבינה המלאכותית נידון כבר זמן רב, אך עדיין קיימות מחלוקות רבות. לדוגמה, בחניון באזור שלי יש מערכת בינה מלאכותית לזיהוי לוחיות רישוי, אך עדיין היו גניבות. באותה תקופה החלה להתעורר מחלוקת לגבי מי אשם. האם בעל הדירה, המאבטח או מפתח מערכת הבינה המלאכותית צריכים להיות אחראים?
מאז, הבניין שינה את הכללים שלו, וקבע כי תושבים יכולים לבחור להשתמש בבינה מלאכותית כדי לזהות לוחיות רישוי לנוחיותם, אך עליהם לקבל את הסיכונים. אלו שיסכימו יוכלו להשתמש בדלתות האוטומטיות, אלו שלא יאלצו לחנות את מכוניותיהם בדרך הישנה. אנחנו צריכים סנקציות כאלה.
באופן דומה, IBM פיתחה פעם מערכת בינה מלאכותית כדי לסייע במניעת סרטן. כאשר המערכת רשמה תרופות, אך המטופל נטל אותן ועדיין לא ניתן היה להציל אותו, האם זו אשמת הרופא או אשמת הבינה המלאכותית?
אני חושב שרגולציה בתחום הבינה המלאכותית צריכה להיות ספציפית, ולקבוע בבירור מה מותר ומה אסור לעשות בעת פיתוח יישומי בינה מלאכותית. כדי להפוך את העולם לבטוח יותר, הרגולציה הבסיסית ביותר שאנחנו יכולים לעשות היא לדרוש שהעברות כספים גדולות יזוהו ביומטרית. במצב כזה, אנשים שמאבדים את פרטי הזהות שלהם יכולים להימנע לחלוטין מאובדן כסף.
תודה.
[מודעה_2]
מָקוֹר
תגובה (0)