![]() |
Модель GPT-5.4-Cyber допомагає експертам перевіряти вразливості в системах безпеки. Фото: Bloomberg . |
OpenAI щойно оголосив про початок розгортання GPT-5.4-Cyber, спеціальної версії GPT-5.4, оптимізованої для безпеки. Цей крок відбувся рівно через тиждень після того, як Anthropic випустила Mythos Preview, модель штучного інтелекту для безпеки, випуск якої був обмежений через її передбачувану вразливість у недобросовісних руках.
«Ми оптимізуємо наші моделі для використання в умовах безпеки, починаючи сьогодні з варіанта GPT-5.4, навченого з акцентом на кібербезпеку», – йдеться в офіційній заяві OpenAI.
Доступ до GPT-5.4-Cyber був наданий учасникам програми Trusted Access for Cyber , яка стартувала в лютому з грантовим кредитом API у розмірі 10 мільйонів доларів . Спочатку доступ отримали сотні користувачів, а згодом його кількість розширилася до тисяч фахівців з безпеки.
Видатною особливістю моделі є її бінарний зворотний інжиніринг, який дозволяє аналізувати скомпільоване програмне забезпечення для пошуку шкідливих програм та вразливостей без необхідності використання оригінального вихідного коду. OpenAI стверджує, що Codex Security, її раніше запущений продукт безпеки, допоміг виправити понад 3000 критичних вразливостей безпеки з моменту розширення його розгортання.
Стратегія OpenAI суттєво відрізняється від стратегії Anthropic. Хоча конкурент надає доступ до Mythos лише приблизно 40 ретельно відібраним організаціям, OpenAI обирає поступовий підхід до розширення, заснований на перевірці особи та нагляді.
«Це командний вид спорту , і нам потрібно забезпечити, щоб кожна команда мала можливість захищати свої системи. Ніхто не повинен мати змогу вибирати, хто перемагає, а хто програє в кібербезпеці», – сказав Фуад Матін, дослідник безпеки в OpenAI.
Технічно, OpenAI вважає, що поточних запобіжних заходів достатньо для зменшення ризиків широкого розгортання традиційних моделей. Однак модель була вдосконалена для забезпечення вищого рівня безпеки системи.
Змагання між двома компаніями відображає ширші дебати в індустрії безпеки щодо того, як поводитися зі штучним інтелектом, здатним атакувати системи. Одна сторона стверджує, що жорсткі обмеження, подібні до тих, що Anthropic наклала на Mythos, дадуть захисникам перевагу над зловмисниками. Інша сторона, зокрема прихильники програмного забезпечення з відкритим кодом, стверджує, що світ був би безпечнішим, якби всі захисники мали доступ до цієї технології, а не лише вибрана група, обрана великими корпораціями.
Джерело: https://znews.vn/openai-dap-tra-anthropic-post1643820.html







Коментар (0)