Vietnam.vn - Nền tảng quảng bá Việt Nam

Độc lập - Tự do - Hạnh phúc

Вразливість Microsoft Copilot: нове попередження про ризик витоку даних штучного інтелекту

Серйозний недолік безпеки в Microsoft Copilot дозволяє викрадати дані користувачів без жодних дій. Цей інцидент порушує важливе питання: чи допомагає нам штучний інтелект, чи наражає нас на небезпеку?

Báo Tuổi TrẻBáo Tuổi Trẻ20/06/2025

Lỗ hổng bảo mật - Ảnh 1.

EchoLeak та потенційні ризики штучного інтелекту

Оскільки штучний інтелект (ШІ) стає частиною всього: від написання звітів і відповідей на електронні листи до аналізу даних, здається, що ми живемо в епоху безпрецедентної зручності. Але зворотна сторона зручності також починає проявлятися, особливо коли йдеться про безпеку.

Нещодавня вразливість системи безпеки під назвою EchoLeak поставила користувачів сервісу Microsoft Copilot під загрозу витоку їхніх конфіденційних даних без будь-яких дій з їхнього боку.

Коли ШІ стає вразливістю безпеки

Згідно з дослідженням Tuoi Tre Online , EchoLeak — це нещодавно зареєстрована вразливість безпеки з кодом CVE-2025-32711, яку експерти оцінили як небезпечну на рівні 9,3/10 за шкалою NIST.

Експертів з безпеки непокоїть те, що це відбувається за своєю природою «нульового кліку» : зловмисники можуть використовувати дані з Copilot без необхідності натискати кнопку, відкривати файл або навіть знати, що щось відбувається.

Це не проста помилка. Дослідницька група Aim Labs, яка виявила цей недолік, вважає, що EchoLeak відображає поширений недолік проектування систем штучного інтелекту на основі агентів та RAG. Оскільки Copilot є частиною пакету програм Microsoft 365, який містить електронні листи, документи, електронні таблиці та розклади зустрічей мільйонів користувачів, потенціал витоку даних є особливо серйозним.

Проблема полягає не лише в конкретному коді, а й у способі роботи великих мовних моделей (LLM). Штучному інтелекту потрібен великий контекст для точної реакції, тому йому надається доступ до великої кількості фонових даних. Без чіткого контролю над вхідними та вихідними даними, ШІ може бути «керований» способами, про які користувачі не знають. Це створює новий вид «бекдору», який виникає не через недолік у коді, а тому, що ШІ поводиться поза межами людського розуміння.

Microsoft швидко випустила патч, і поки що жодних реальних збитків не повідомлялося. Але урок EchoLeak очевидний: коли штучний інтелект глибоко інтегрований у робочі системи, навіть невеликі помилки в тому, як він розуміє контекст, можуть мати серйозні наслідки для безпеки.

Чим зручнішим стає штучний інтелект, тим крихкішими стають персональні дані

Інцидент з EchoLeak порушує тривожне питання: чи люди настільки довіряють штучному інтелекту, що не усвідомлюють, що їх можна відстежувати або розкривати їхню особисту інформацію лише за допомогою текстового повідомлення? Нещодавно виявлена ​​вразливість, яка дозволяє хакерам непомітно витягувати дані, не натискаючи жодних кнопок користувачами, — це те, що колись можна було побачити лише у науково-фантастичних фільмах, але тепер це реальність.

Хоча додатки штучного інтелекту стають дедалі популярнішими, від віртуальних помічників, таких як Copilot, чат-ботів у банківській справі, освіті до платформ штучного інтелекту, які пишуть контент та обробляють електронні листи, більшість людей не попереджають про те, як обробляються та зберігаються їхні дані.

«Спілкування» з системою штучного інтелекту – це вже не просто запитання для зручності, а й ненавмисно розкриття вашого місцезнаходження, звички, емоції чи навіть інформацію про обліковий запис.

У В'єтнамі багато людей знайомі з використанням штучного інтелекту на телефонах і комп'ютерах, не маючи базових знань про цифрову безпеку . Багато людей діляться особистою інформацією зі штучним інтелектом, оскільки вважають, що це «просто машина». Але насправді за цим стоїть система, яка може записувати, навчатися та передавати дані в інші місця, особливо коли платформа штучного інтелекту надходить від третьої сторони та не пройшла чіткого тестування на безпеку.

Щоб обмежити ризики, користувачам не обов'язково відмовлятися від технологій, але вони повинні бути більш усвідомленими: їм слід ретельно перевіряти, чи має додаток штучного інтелекту, який вони використовують, надійне джерело, чи зашифровані дані, і особливо не ділитися конфіденційною інформацією, такою як номери ідентифікаційних карток, банківські рахунки, медична інформація... з будь-якою системою штучного інтелекту без чіткого попередження.

Так само, як і на початку існування інтернету, штучному інтелекту також потрібен час для вдосконалення, і протягом цього часу користувачі повинні першими проактивно захищати себе.

Ви коли-небудь ділилися забагато інформації зі штучним інтелектом?

Вводячи команду на кшталт «перепишіть цей звіт для мене більш зручним способом» або «підсумуйте вчорашню зустріч», багато людей не думають, що вся інформація, яку вони вводять, включаючи внутрішні деталі, особисті почуття та робочі звички, може бути записана штучним інтелектом. Ми так звикли спілкуватися за допомогою розумних інструментів, що забуваємо про межу між зручністю та конфіденційністю.

Повернутися до теми
ТУАН VI

Джерело: https://tuoitre.vn/lo-hong-bao-mat-trong-microsoft-copilot-canh-bao-moi-ve-nguy-co-ro-ri-du-lieu-tu-ai-20250620103045262.htm


Коментар (0)

No data
No data

У тій самій темі

У тій самій категорії

Стара вулиця Ханг Ма "змінює свій одяг", щоб зустріти Свято середини осені
Фіолетовий пагорб Суой Бон цвіте серед плавучого моря хмар у Сон Ла
Туристи стікаються до Y Ty, що потопає серед найкрасивіших терасованих полів на північному заході.
Крупний план рідкісних нікобарських голубів у національному парку Кон Дао

Того ж автора

Спадщина

Фігура

Бізнес

No videos available

Новини

Політична система

Місцевий

Продукт