Фішинг вже давно є улюбленою зброєю хакерів у кіберсвіті . Він служить прелюдією до різних атак, дозволяючи викрадати облікові дані, проникати в інфраструктуру та порушувати роботу.
Зростання попередньо навчених моделей машинного навчання (GPT) привнесло новий вимір загрози в ландшафт кібербезпеки. GPT — це велика мовна модель та провідний фреймворк для генеративного штучного інтелекту.
Здатність генерувати переконливий штучний текст у великих масштабах викликала занепокоєння серед експертів з безпеки. Це може мати величезний вплив на шахрайство на основі штучного інтелекту, шахрайство електронною поштою, включаючи компрометацію ділової електронної пошти (BEC).
Фішинг базується на обмані кінцевого користувача, змушуючи його повірити, що електронний лист надходить від легітимної особи. GPT може допомогти в цьому процесі, створюючи відповіді, які відповідають стилю та мові, змушуючи одержувача вірити, що він взаємодіє з довіреним колегою або особою. Це ускладнює розрізнення тексту, згенерованого машиною, та тексту, згенерованого людиною, в повідомленнях.
Хоча й доступні інструменти для ідентифікації машинно згенерованого тексту, ми повинні бути готові до сценарію, коли GPT-теги розвиватимуться, щоб обходити ці захисти. Крім того, хакери можуть використовувати моделі, подібні до GPT, для створення зображень, відео або таргетування певних галузей, що ще більше збільшує ризики кібербезпеки.
Щоб пом’якшити ці загрози, окремим особам та організаціям необхідно якомога раніше впроваджувати рішення для захисту електронної пошти на базі штучного інтелекту. Штучний інтелект може ефективно протидіяти сучасним тактикам кіберзлочинності та виявляти підозрілу діяльність.
Багатофакторна автентифікація (MFA) та методи біометричної ідентифікації можуть підвищити безпеку, забезпечуючи додатковий рівень захисту від вторгнення хакерів.
Окрім технологічних заходів, для покращення людського фактору у боротьбі з фішинговими атаками важливі регулярні програми навчання та підвищення обізнаності. Людський досвід та пильність допоможуть ефективно розпізнавати та реагувати на спроби фішингу. Гейміфікацію та симуляцію можна використовувати для підвищення обізнаності та виявлення користувачів, які перебувають у групі ризику кібератак.
Оскільки фішингові кампанії, керовані GPT, стають дедалі поширенішими, організації повинні бути проактивними у своїх зусиллях щодо кібербезпеки. Розуміючи можливості технології GPT та впроваджуючи надійні заходи безпеки, ми можемо ефективно захиститися від цієї зростаючої фішингової загрози, керованої штучним інтелектом.
(від Barracuda)
Джерело
Коментар (0)