פושעי סייבר ממנפים כלי בינה מלאכותית גנרטיבית (AI) כמו ChatGPT כדי ליצור מיילים של פישינג עבור עסקים ואחרים, כך עולה מדו"ח של חברת אבטחת הסייבר SlashNext. בסקר שנערך בקרב יותר מ-300 אנשי מקצוע בתחום אבטחת הסייבר בצפון אמריקה, כמעט מחציתם אמרו שנתקלו במתקפת פישינג שכוונה לעסק, ו-77% מהם אמרו שהם היו מטרה של גורם פושע.
מנכ"ל SlashNext, פטריק הר, אמר כי הממצאים מחזקים את החששות לגבי האופן שבו בינה מלאכותית גנרית תורמת לעלייתן של הונאות. נוכלים משתמשים לעתים קרובות בבינה מלאכותית כדי לפתח תוכנות זדוניות או הונאות הנדסה חברתית כדי להגדיל את שיעורי ההצלחה שלהם.
על פי דיווחים, בממוצע מתרחשות 31,000 הונאות מקוונות מדי יום.
השקת ChatGPT בסוף 2022 חופפת למסגרת הזמן בה SlashNext חוותה עלייה חדה בהתקפות פישינג, הוסיף הר.
בצטטו דו"ח על פשעי אינטרנט של הלשכה הפדרלית לחקירות אמריקאיות (FBI), הטריק של שליחת מיילים מזויפים לעסקים גרם נזק של כ-2.7 מיליארד דולר עד שנת 2022.
בעוד שהתנהל ויכוח מסוים לגבי ההשפעה האמיתית של בינה מלאכותית גנרטיבית על פשעי סייבר, הרר מאמין שצ'אטבוטים כמו ChatGPT משמשים כנשק למתקפות סייבר. לדוגמה, ביולי, חוקרי SlashNext גילו שני צ'אטבוטים זדוניים בשם WormGPT ו-FraudGPT, ששימשו ככלים עבור פושעי סייבר לביצוע קמפיינים מתוחכמים של פישינג.
האקרים משתמשים בבינה מלאכותית גנרטיבית ובמודלים של עיבוד שפה טבעית (NLP) כדי לבצע פישינג, אומר כריס סטפן, מנהל מחקר בחברת Enterprise Management Associates. באמצעות שימוש בבינה מלאכותית לניתוח מידע ישן, מאמרים וחיקוי מסמכים ממשלתיים או תאגידיים, הודעות דוא"ל פישינג הופכות משכנעות ביותר וקשה להבחין בהן.
כדי להילחם בעלייה במספר המתקפות, אנשים צריכים להעלות את המודעות לאבטחה ולשים לב לאימיילים או פעילות חשודה. פתרון נוסף הוא לפרוס כלי סינון אימיילים המשתמשים בבינה מלאכותית ולמידת מכונה כדי למנוע פישינג. ארגונים צריכים גם לערוך ביקורות אבטחה סדירות, לזהות פגיעויות וחולשות במערכת בהכשרת עובדים, ולטפל באופן מיידי בבעיות ידועות כדי להפחית את הסיכון להתקפה.
[מודעה_2]
קישור למקור
תגובה (0)