Искусственный интеллект (ИИ), такой как ChatGPT, стал мировой сенсацией с начала 2023 года, но его не всегда используют в позитивных целях. Недавно эксперт по безопасности обнаружил способ заставить ChatGPT генерировать вредоносный код во время тестирования.
Аарон Малгрю, эксперт по безопасности из Forcepoint, рассказал о рисках написания вредоносного кода с помощью двуязычного чат-бота OpenAI. Хотя ChatGPT разработан таким образом, чтобы предотвратить запросы пользователей к ИИ на разработку вредоносного ПО, Аарон обнаружил уязвимость, создав команды (подсказки) для построчного написания кода искусственным интеллектом. В результате Аарон понял, что у него в руках незаметный инструмент для кражи данных, настолько сложный, что он может соперничать даже с самыми продвинутыми вредоносными программами, доступными в настоящее время.
Каждая отдельная строка кода, сгенерированная ChatGPT, в совокупности может превратиться в сложное вредоносное ПО.
Открытие Малгрю служит тревожным сигналом о потенциале использования ИИ для создания опасного вредоносного ПО без необходимости привлечения каких-либо хакерских групп и без того, чтобы создатели сами написали хотя бы одну строчку кода.
Вредоносная программа Mulgrew замаскирована под настольное приложение, но может автоматически активироваться на устройствах под управлением Windows. Попав в операционную систему, вредоносная программа «проникает» во все файлы, включая документы Word, графические файлы и PDF-файлы, в поисках данных для кражи.
Получив необходимую информацию, программа расшифровывает её и внедряет в графические файлы на компьютере. Чтобы избежать обнаружения, эти изображения загружаются в папку в облачном хранилище Google Drive. Вредоносная программа становится невероятно мощной, потому что Mulgrew может тонко настраивать и улучшать свои функции, чтобы избегать обнаружения с помощью простых команд, вводимых в ChatGPT.
Хотя это был результат закрытого тестирования, проведенного экспертом по безопасности, и никаких атак за пределами тестовой зоны не проводилось, эксперты по кибербезопасности все же признали опасность действий, связанных с использованием ChatGPT. Малгрю заявил, что сам он не обладает большим опытом в программировании, но искусственный интеллект OpenAI все же оказался недостаточно мощным или интеллектуальным, чтобы остановить его тест.
Ссылка на источник






Комментарий (0)