Функция обмена чатом через публичную ссылку на ChatGPT — Фото: Techradar
В настоящее время ChatGPT обрабатывает более 2,5 миллиардов запросов от пользователей по всему миру ежедневно, что свидетельствует о растущей популярности этого чат-бота.
Однако этот инструмент столкнулся с резкой негативной реакцией пользователей, поскольку функция «поделиться» привела к утечке конфиденциальной информации из тысяч разговоров в Google и несколько других поисковых систем в Интернете.
Высокий риск безопасности
Г-н Ву Нгок Сон, руководитель отдела технологий Национальной ассоциации кибербезопасности (NCA), оценил, что вышеуказанный инцидент демонстрирует высокий уровень риска безопасности для пользователей ChatGPT.
«Вышеупомянутый инцидент не обязательно является технической ошибкой, поскольку пользователь проявил инициативу, нажав кнопку «Поделиться». Однако можно сказать, что проблема кроется в конструкции чат-бота на основе искусственного интеллекта, который вводит пользователей в заблуждение, а также в отсутствии достаточно строгих мер предупреждения о риске утечки персональных данных при обмене информацией», — проанализировал г-н Ву Нгок Сон.
В ChatGPT эта функция реализуется после того, как пользователь решает поделиться чатом через публичную ссылку, контент будет сохранен на сервере OpenAI как публичный веб-сайт (chatgpt.com/share/...), для доступа не требуется логин или пароль.
Роботы Google автоматически сканируют и индексируют эти страницы, благодаря чему они появляются в результатах поиска, включая текст, изображения или конфиденциальные данные чата.
Многие пользователи не осознавали риска, полагая, что делятся чатами с друзьями или знакомыми. Это привело к утечке тысяч переписок, некоторые из которых содержали конфиденциальную личную информацию.
Хотя OpenAI быстро удалила эту функцию в конце июля 2025 года после негативной реакции сообщества, всё равно потребовалось время на согласование с Google удаления старых индексов. Учитывая сложную систему хранения данных, включающую кеш-серверы Google, это невозможно сделать быстро.
Не относитесь к чат-ботам на основе искусственного интеллекта как к «черному ящику безопасности»
Эксперт по безопасности данных Ву Нгок Сон — руководитель отдела технологий Национальной ассоциации кибербезопасности (NCA) — Фото: CHI HIEU
Утечка тысяч чатов может представлять опасность для пользователей, например, раскрытие личных секретов, деловых тайн, ущерб репутации, финансовые риски или даже угрозу безопасности при раскрытии домашних адресов.
«Чат-боты на базе искусственного интеллекта полезны, но не являются «черным ящиком», поскольку общие данные могут существовать в сети вечно, если их не проверять.
Этот инцидент, безусловно, стал уроком как для поставщиков, так и для пользователей. Другие поставщики услуг ИИ могут извлечь уроки из этого опыта и разработать функции с более чёткими и прозрачными предупреждениями.
«В то же время пользователям также необходимо заблаговременно ограничивать неконтролируемую публикацию персонально идентифицируемой или конфиденциальной информации на платформах ИИ», — рекомендует эксперт по безопасности Ву Нгок Сон.
По мнению экспертов по безопасности данных, вышеупомянутый инцидент демонстрирует необходимость разработки правовых коридоров и стандартов кибербезопасности для ИИ. Поставщикам и разработчикам ИИ также необходимо разрабатывать системы, обеспечивающие безопасность, предотвращая риск утечки данных, такой как: утечка через серьёзные уязвимости; уязвимости программного обеспечения, приводящие к атакам на базы данных; слабый контроль, приводящий к отравлению данных; злоупотребления для ответов на вводящие в заблуждение и искажённые вопросы.
Пользователям также необходимо контролировать передачу персональных данных ИИ и не передавать конфиденциальную информацию. В случаях, когда это действительно необходимо, рекомендуется использовать анонимный режим или активное шифрование информации, чтобы избежать прямой привязки данных к конкретным лицам.
Источник: https://tuoitre.vn/hang-ngan-cuoc-tro-chuyen-voi-chatgpt-bi-lo-tren-google-nguoi-dung-luu-y-gi-20250805152646255.htm
Комментарий (0)