Google зіткнувся з критикою після відмови виправити серйозну вразливість у Gemini, інструменті штучного інтелекту (ШІ), глибоко інтегрованому в екосистему Google Workspace. За словами експертів з безпеки, помилка може призвести до витоку конфіденційної інформації користувачів стороннім особам через атаку під назвою «контрабанда ASCII».

Близнюки вразливі до коду, прихованого в тексті
Дослідник безпеки Віктор Маркопулос протестував кілька популярних моделей великих мов програмування (LLM) на стійкість до цієї атаки. Результати показали, що Gemini, DeepSeek та Grok були вразливими, тоді як ChatGPT, Claude та Copilot були краще захищені.
Контрабанда ASCII – це форма атаки, коли зловмисник приховує код запиту або команди в тексті, часто надзвичайно малого розміру або спеціально закодований. Коли користувач просить штучний інтелект узагальнити або проаналізувати вміст, що містить цей прихований код, інструмент штучного інтелекту випадково зчитує та виконає шкідливий запит без відома користувача.

«Джеміні 3» привертає увагу ще до виходу
Ризик витоку конфіденційних даних у Google Workspace
Оскільки Gemini безпосередньо інтегровано в сервіси Gmail, Docs та Google Workspace, цей ризик стає особливо тривожним: прихована підказка може змусити штучний інтелект автоматично шукати особисту інформацію, контактні дані або конфіденційні документи, а потім надсилати їх із системи без відома користувача.
Маркопулос звернувся до Google, щоб представити свої висновки, навіть проілюструвавши це невидимим фрагментом коду, який спонукав Gemini поділитися посиланням на шкідливий веб-сайт лише для того, щоб «обміняти телефон зі знижкою».
Google заперечує, що це недолік безпеки
У своїй опублікованій відповіді Google заявила, що це не вразливість системи безпеки, а форма атаки соціальної інженерії. Іншими словами, компанія вважала це помилкою, спричиненою необережною взаємодією з користувачем, а не проблемою зі своєю системою штучного інтелекту.
Ця відповідь свідчить про те, що Google не планує випускати патч для Gemini найближчим часом, а це означає, що користувачам слід бути обережнішими, використовуючи штучний інтелект для обробки документів, особливо тих, що містять конфіденційну інформацію або надходять з неперевірених джерел.
Зростаюче занепокоєння щодо безпеки глибоко інтегрованого штучного інтелекту
Цей інцидент ставить під сумнів відповідальність технологічних компаній, оскільки штучний інтелект все більше інтегрується в робочі та комунікаційні платформи. Хоча Google наголошує на своїй відданості «безпеці користувачів», це рішення може вплинути на довіру до безпеки Gemini, особливо в корпоративному середовищі.
За даними Android Authority
Джерело: https://baovanhoa.vn/nhip-song-so/google-gay-tranh-cai-khi-tu-choi-va-loi-bao-mat-gemini-173381.html
Коментар (0)