Атака з кожного кута
Google запустив новий продукт штучного інтелекту (ШІ) під назвою «Gemini Nano Banana», який не є ШІ на великій мові програмування (LLM) зі здатністю писати та міркувати, а ШІ, що спеціалізується на редагуванні фотографій... Багато користувачів захоплені цим інструментом, але він також має багато шкідливих наслідків.

«Це схоже на «регрес» технологій та етики штучного інтелекту», – сказав Нгуєн Хонг Фук, директор з науки в Conductify AI. «Gemini Nano Banana має можливість ефективно редагувати фотографії. Але відсутність цензури в Gemini Nano Banana від Google, що послаблює бар’єри та обмежувальні механізми, дозволяє цьому штучному інтелекту створювати зображення, які дуже схожі на зображення знаменитостей, сексуальні зображення, чутливі зображення…», – сказав пан Фук.
За словами пана Нгуєна Хонг Фука, ця здатність робить Gemini Nano Banana інструментом для створення підроблених зображень настільки реалістичних, що навіть експерти зі штучного інтелекту не можуть їх розрізнити, що призводить до нових ризиків шахрайства та кібербезпеки, таких як створення фотографій із політиками та відомими політиками для поширення фейкової інформації, навіть фотографії окремих осіб редагуються штучним інтелектом та паплюжаються в соціальних мережах...
Крім того, оскільки десятки інших інструментів штучного інтелекту для редагування фотографій «наробляють фурор» в Інтернеті, шахрайству з використанням діпфейків не видно кінця. Статистика організацій безпеки показує, що технологія діпфейків створює шахрайські кампанії, спрямовані на високоцінних осіб, особливо на бізнес-лідерів. У 2024 році у світі було зареєстровано 140 000-150 000 випадків, з яких 75% були спрямовані на генеральних директорів та керівників вищої ланки... Діпфейк може збільшити глобальні економічні втрати на 32%, приблизно на 40 мільярдів доларів США на рік до 2027 року.
Нещодавно компанія AI Anthropic виявила та запобігла кібератаці, здійсненій іноземними хакерами, в якій вперше зафіксовано використання штучного інтелекту для координації автоматизованих атак. Зокрема, хакери використовували системи штучного інтелекту для планування, керівництва та розгортання дій з вторгнення – це «тривожний» розвиток подій, що може призвести до розширення масштабів та швидкості кібератак...
Пан Нго Мінь Х'єу, директор Організації боротьби з шахрайством Національної асоціації кібербезпеки, поділився тим, що інструмент, інтегрований зі штучним інтелектом, має швидкість шахрайства приблизно у 20 разів вищу, ніж використання реальних людей. Суб'єкти надають сценарій шахрайства штучному інтелекту для аналізу, і система негайно автоматично спілкується з жертвами. За початковими даними штучний інтелект може знати, чого хоче жертва, і спілкуватися з нею в режимі реального часу. Найскладнішим трюком є атака «Людина посередині», що означає, що коли користувач виконує відеоавтентифікацію, таку як поворот обличчя, читання команд, хакер стає посередині, щоб втрутитися в передані дані. У цей час кіберзлочинці вставляють підготовлені відео з глибокими фейками, замінюючи реальний потік даних користувача, щоб обійти автентифікацію... За допомогою вищезгаданого методу системи безпеки банків та фінансових установ також піддаються ризику шахрайства.
Краще управління даними
Зі зростанням популярності штучного інтелекту значно зростають ризики для безпеки та конфіденційності. Дані, що зберігаються та обробляються на віддалених серверах, стануть привабливою мішенню для хакерів та кіберзлочинних організацій. Згідно з даними Національної асоціації кібербезпеки, лише у другому кварталі 2025 року кількість кібератак з використанням штучного інтелекту зросла на 62%, що спричинило глобальні втрати до 18 мільярдів доларів США...
Експерти кажуть, що захист даних є життєво важливим. Однак збір та продаж даних все ще відбуваються відкрито на багатьох платформах «темного ринку» всього за 20 доларів на місяць. Кіберзлочинці можуть використовувати інструменти, які працюють подібно до мовних моделей, але налаштовані для злочинних цілей. Ці інструменти здатні створювати шкідливий код і навіть обходити антивірусне програмне забезпечення.
У В'єтнамі захист персональних даних регулюється Указом № 13/2023/ND-CP (що набрав чинності 17 квітня 2023 року). Крім того, очікується, що Закон про захист персональних даних набуде чинності з 1 січня 2026 року, що відкриє сильніший правовий механізм реагування на ризик витоку персональних даних та зловживання ними. Однак, за даними Національної асоціації кібербезпеки, ефективність правозастосування все ще потребує посилення за всіма трьома напрямками: підвищення обізнаності людей, підвищення відповідальності бізнесу та покращення можливостей управління. Окрім технічних заходів, кожна людина повинна розвинути здатність виявляти незвичайні та підозрілі ознаки та проактивно захищати себе від небезпечних цифрових взаємодій...
Компанія Kaspersky, що спеціалізується на безпеці, застерігає від зловживання темним штучним інтелектом (термін, що використовується для опису розгортання моделей великих мов (LLM), які працюють поза стандартними засобами контролю безпеки, часто допускаючи такі дії, як шахрайство, маніпуляції, кібератаки або зловживання даними). Організаціям та окремим особам необхідно готуватися до дедалі складніших та важчих для виявлення кібератак через зростання популярності темного штучного інтелекту в Азіатсько-Тихоокеанському регіоні.
Сергій Ложкін, керівник Глобальної дослідницької та аналітичної групи (GReAT), відповідальної за Близький Схід, Туреччину, Африку та Азіатсько-Тихоокеанський регіон у Kaspersky, поділився тим, що одним із проявів зловживання ШІ сьогодні є поява моделей Black Hat GPT. Це моделі ШІ, спеціально розроблені або налаштовані для неетичних та незаконних цілей, таких як створення шкідливого програмного забезпечення, написання плавних та переконливих фішингових електронних листів для масштабних атак, створення голосів та діпфейкових відео, і навіть підтримка імітації операцій атаки...
Експерти Kaspersky рекомендують окремим особам та підприємствам використовувати рішення безпеки наступного покоління для виявлення шкідливого програмного забезпечення, створеного штучним інтелектом, та визначають захист даних як важливу мету. Для підприємств необхідно застосовувати інструменти моніторингу в режимі реального часу для відстеження експлойтів, спричинених штучним інтелектом; посилити контроль доступу та навчання персоналу, щоб обмежити явище штучного інтелекту в темряві, а також ризик витоку даних; створити центр кібербезпеки для моніторингу загроз та швидкого реагування на інциденти...
Джерело: https://www.sggp.org.vn/bao-mat-du-lieu-thoi-ai-post824210.html






Коментар (0)