Фішинг вже давно є улюбленою зброєю хакерів у кіберсвіті . Він служить прелюдією до різних атак, що дозволяє викрадати облікові дані, порушувати інфраструктуру та збої в роботі.
Зростання кількості попередньо навчених моделей машинного навчання (GPT) створило новий аспект ризику для ландшафту кібербезпеки. GPT — це велика мовна модель та провідний фреймворк для генеративного штучного інтелекту.
Здатність генерувати переконливий штучний текст у великих масштабах викликала занепокоєння серед експертів з безпеки. Це може суттєво вплинути на фішинг за допомогою штучного інтелекту, фішинг електронної пошти, включаючи порушення ділової електронної пошти (BEC).
Фішингові спроби працюють шляхом обману кінцевих користувачів, змушуючи їх повірити, що електронні листи надходять від легітимної організації. GPT (загальна постійна загроза) може сприяти цьому процесу, генеруючи відповіді, які є стилістично та лінгвістично доречними, змушуючи одержувачів помилково вважати, що вони взаємодіють з довіреним колегою або особою. Це ускладнює розрізнення тексту, згенерованого машиною, та тексту, згенерованого людиною, у повідомленнях.
Хоча наразі доступні інструменти для ідентифікації машинно згенерованого тексту, ми повинні бути готові до сценарію, коли GPT розвиватиметься, щоб обійти ці захисти. Крім того, хакери можуть використовувати шаблони, подібні до GPT, для створення зображень, відео або атак на певні галузі, що ще більше збільшує ризики кібербезпеки.
Щоб пом’якшити ці загрози, окремим особам та організаціям необхідно впроваджувати рішення для захисту електронної пошти на базі штучного інтелекту на ранній стадії. Штучний інтелект може ефективно боротися із сучасними тактиками кіберзлочинності та виявляти підозрілу активність.
Багатофакторна автентифікація (MFA) та методи біометричної ідентифікації можуть підвищити безпеку, забезпечуючи додатковий рівень захисту від хакерських вторгнень.
Окрім технологічних заходів, постійні програми навчання та підвищення обізнаності мають вирішальне значення для покращення людського фактору перед обличчям фішингових атак. Людський досвід та пильність допоможуть розпізнавати та ефективно реагувати на спроби фішингу. Гейміфікацію та симуляцію можна використовувати для підвищення обізнаності та виявлення користувачів, які перебувають у групі ризику кібератак.
З огляду на зростання поширеності фішингових кампаній, що використовують GPT, організації повинні проактивно покращувати свою кібербезпеку. Розуміючи можливості технології GPT та впроваджуючи надійні заходи безпеки, ми можемо ефективно захиститися від цієї зростаючої загрози фішингу на основі штучного інтелекту.
(за словами Барракуди)
Джерело






Коментар (0)