![]() |
Модель GPT-5.4-Cyber помогает экспертам тестировать системы безопасности на наличие уязвимостей. Фото: Bloomberg . |
Компания OpenAI только что объявила о начале развертывания GPT-5.4-Cyber, специальной версии GPT-5.4, оптимизированной для обеспечения безопасности. Этот шаг был предпринят ровно через неделю после того, как Anthropic выпустила Mythos Preview, модель искусственного интеллекта для обеспечения безопасности, выпуск которой был ограничен из-за предполагаемой уязвимости в чужих руках.
«Мы оптимизируем наши модели для решения задач обеспечения безопасности, начиная с сегодняшнего дня с варианта GPT-5.4, обученного с учетом требований кибербезопасности», — говорится в официальном заявлении OpenAI.
Доступ к GPT-5.4-Cyber был предоставлен участникам программы Trusted Access for Cyber, запущенной в феврале с грантом в размере 10 миллионов долларов США на приобретение API-кредитов. Первоначально доступ получили сотни пользователей, а позже он расширился до тысяч специалистов по безопасности.
Главная особенность этой модели — бинарное обратное проектирование, позволяющее анализировать скомпилированное программное обеспечение для обнаружения вредоносных программ и уязвимостей без необходимости доступа к исходному коду. Компания OpenAI заявляет, что её ранее выпущенный продукт безопасности Codex Security способствовал устранению более 3000 критических уязвимостей с момента расширения его использования.
Стратегия OpenAI существенно отличается от стратегии Anthropic. В то время как конкурент предоставляет доступ к Mythos лишь примерно 40 тщательно отобранным организациям, OpenAI выбирает подход постепенного расширения, основанный на проверке личности и контроле.
«Это командный вид спорта , и мы должны обеспечить каждой команде возможность защищать свои системы. Никто не должен иметь возможность выбирать, кто победит, а кто проиграет в кибербезопасности», — сказал Фуад Матин, исследователь в области безопасности из OpenAI.
С технической точки зрения, OpenAI считает, что существующих мер защиты достаточно для снижения рисков широкого внедрения традиционных моделей. Однако модель была усовершенствована для обеспечения более высокого уровня безопасности системы.
Соперничество между двумя компаниями отражает более широкую дискуссию в индустрии безопасности о том, как бороться с искусственным интеллектом, способным атаковать системы. Одна сторона утверждает, что жесткие ограничения, подобные тем, которые Anthropic наложила на Mythos, дадут защитникам преимущество перед злоумышленниками. Другая сторона, особенно сторонники программного обеспечения с открытым исходным кодом, утверждает, что мир был бы безопаснее, если бы все защитники имели доступ к этой технологии, а не только избранная группа, выбранная крупными корпорациями.
Источник: https://znews.vn/openai-dap-tra-anthropic-post1643820.html







Комментарий (0)