Що ви думаєте про тенденцію хакерів "перетворювати штучний інтелект" на зброю для здійснення кібератак та шахрайства?
Д-р Нгуєн Туан Кханг: Згідно з індексом розвідки загроз X-Force від IBM за 2024 рік, Азіатсько- Тихоокеанський регіон, включаючи В'єтнам, є регіоном, який постраждає від найбільшої кількості кібератак у світі у 2023 році. З них виробництво є галуззю, яка найбільше постраждала від кібератак.
Основним методом зловмисників залишаються фішингові атаки, спрямовані на вразливих людей, та використання вразливостей для встановлення шкідливого програмного забезпечення. Крім того, новою тенденцією 2024 року є кібератаки за участю штучного інтелекту (ШІ).
У звіті Wired зазначається, що багато зловмисників використовують генеративний штучний інтелект для керування хакерськими атаками, створення шахрайських чат-ботів або створення фейкових зображень та відео , які імітують обличчя та голоси інших людей.
Однак, разом із цією тенденцією, системи інформаційної безпеки також починають інтегрувати функції штучного інтелекту, такі як Watsonx. Штучний інтелект може бути використаний, але також може замінити людину в аналізі, моніторингу, ідентифікації чисел, прогнозуванні сценаріїв атак, тим самим покращуючи оборонні можливості та мінімізуючи ризики інформаційної безпеки.
Шахрайство з використанням дипфейків стає дедалі поширенішим. Зі стрімким розвитком штучного інтелекту, наскільки небезпечними будуть ці атаки в майбутньому?
Д-р Нгуєн Туан Кханг: По суті, Deepfake – це технологія, яка допомагає хакерам створювати фальшиві цифрові ідентичності, тим самим видаючи себе за інших. Deepfake стане небезпечною проблемою, оскільки ця технологія стає дедалі складнішою.
Щоб боротися з Deepfake, перше, що потрібно зробити, це визначити, чи зображення чи голос людини згенеровані штучним інтелектом. Наразі не існує універсального інструменту, який може миттєво виявити Deepfake, оскільки зловмисники постійно розробляють нові моделі.
Окрім виявлення діпфейків, існує ще один метод боротьби з ним, а саме використання технологій для аналізу поведінки. З організаційної та бізнес-точки зору необхідно розробити систему, яка поєднує обидва ці методи.
Останнім часом траплялися кібератаки, під час яких хакери таємно встановлювали шкідливе програмне забезпечення в систему компанії. Шкідливе програмне забезпечення чатує та аналізує всю діяльність, створюючи таким чином фальшиву особу для здійснення зловмисних намірів. З розвитком технології Deepfake у поєднанні з можливістю створювати відео за допомогою штучного інтелекту, ці типи атак стануть набагато небезпечнішими в майбутньому.
З огляду на ескалацію кібератак Deepfake, як ми можемо захистити людей похилого віку, дітей та інші вразливі групи від шахраїв?
Д-р Нгуєн Туан Кханг: Люди похилого віку та діти часто стають жертвами атак шахраїв, які використовують техніку, що називається соціальною інженерією. Це термін, що описує атаки шляхом маніпуляції людською поведінкою.
Хакери тепер можуть використовувати штучний інтелект у поєднанні зі збором, аналізом та аналізом даних, щоб ідентифікувати людей, які можуть стати жертвами шахрайства, а потім знаходити способи атаки. Окрім підвищення обізнаності в спільноті, ми також повинні визнати, що ситуації, коли користувачів обманюють, траплятимуться, і повинні використовувати технології для їх виявлення та запобігання.
Нещодавно стався випадок, коли банківський працівник запідозрив у літній жінці, яка прийшла переказати гроші, ознаки шахрайства. Ця особа негайно зупинила транзакцію та повідомила про це правоохоронним органам. ІТ-системи банків тепер мають технології, що дозволяють замінити людей у таких завданнях.
Роль технології полягає в тому, що навіть якщо відомо, що відправник є справжньою особою, система все одно зупинить переказ, якщо виникне підозра, що транзакцією маніпулює хтось інший. Такі інструменти називаються системами запобігання шахрайству.
Чи настав час для В'єтнаму запровадити санкції щодо управління штучним інтелектом та врегулювати дослідження, розробки та використання штучного інтелекту?
Д-р Нгуєн Туан Кханг: Питання управління штучним інтелектом обговорюється вже давно, проте досі існує багато суперечок. Наприклад, на парковці в моєму районі є система штучного інтелекту для розпізнавання номерних знаків, але крадіжки все одно траплялися. У той час почали виникати суперечки щодо того, чия це вина. Чи повинен нести відповідальність власник квартири, охоронець чи розробник системи штучного інтелекту?
Відтоді будівля змінила свої правила, заявивши, що мешканці можуть використовувати штучний інтелект для розпізнавання номерних знаків для зручності, але вони повинні прийняти ризики. Ті, хто погоджується, зможуть користуватися автоматичними дверима, ті, хто ні, повинні будуть паркувати свої автомобілі по-старому. Нам потрібні такі санкції.
Аналогічно, IBM колись розробила систему штучного інтелекту для запобігання раку. Коли система виписала ліки, але пацієнт їх прийняв, але його все одно не вдалося врятувати, чи це вина лікаря, чи вина штучного інтелекту?
Я вважаю, що регулювання штучного інтелекту має бути конкретним, чітко визначаючи, що можна, а що не можна робити під час розробки додатків на основі штучного інтелекту. Щоб зробити світ безпечнішим, найпростіше регулювання, яке ми можемо зробити, — це вимагати біометричного розпізнавання великих грошових переказів. У такій ситуації люди, які втрачають свою ідентифікаційну інформацію, можуть повністю уникнути втрат грошей.
Дякую.
Джерело
Коментар (0)