Появление чат-ботов, таких как ChatGPT от OpenAI, облегчает нашу жизнь.
Искусственный интеллект (ИИ) может отвечать на сложные вопросы пользователей и даже выполнять задачи необычайно похожим на человеческие способом.
По этой причине пользователи иногда хотят «рассказать» ИИ-чатботам всё о себе, считая это безобидным. Однако это действие имеет непредсказуемые последствия.
Эксперты предупреждают пользователей не делиться слишком большой информацией с чат-ботами на базе искусственного интеллекта. Фото: The Sun
Эксперт по кибербезопасности Стэн Камински из «Лаборатории Касперского» (Россия) предупреждает: «Не отправляйте никакие свои персональные данные чат-ботам на основе искусственного интеллекта».
«Никогда не сообщайте чат-ботам свои пароли, номера паспортов, удостоверений личности, банковских карт, адреса, номера телефонов, настоящие имена и другие персональные данные, принадлежащие вам, вашей компании или вашим клиентам», — отметил он.
Камински также предупредил пользователей не загружать документы в чат-бот. «Это подвергает вас риску утечки конфиденциальных данных, интеллектуальной собственности или коммерческой тайны, например, дат выпуска новых продуктов или расчёта заработной платы целой компании», — пояснил он.
Эксперты «Лаборатории Касперского» объясняют, что персональные данные, передаваемые ИИ-чат-ботам, могут быть легко раскрыты различными способами. Например, ChatGPT автоматически сохраняет разговоры для обучения новых версий.
При этом чат-бот может непреднамеренно передать вашу информацию другим пользователям. Более того, ваш разговор с ИИ-чат-ботом может быть проверен модераторами.
«Помните, что всё, чем вы делитесь с чат-ботом, может быть использовано против вас. Лучше всего сохранять анонимность общения с чат-ботом», — цитирует The Sun экспертов.
Источник: https://nld.com.vn/tam-su-voi-chatbot-ai-coi-chung-bi-lo-du-lieu-ca-nhan-196240217141619813.htm
Комментарий (0)