Частные разговоры становятся публичными данными
Согласно отчёту Fast Company, Google проиндексировал тысячи личных переписок. Это может быть лишь «вершиной айсберга»: ещё миллионы переписок могут оказаться в открытом доступе.
Хотя эти разговоры не содержали напрямую идентифицирующей информации, многие пользователи делились крайне конфиденциальными личными подробностями — от отношений до травматического опыта, — что сделало идентификацию возможной.
Все началось с того, что эксперты по кибербезопасности обнаружили, что с помощью простого запроса в Google пользователи могут легко получить доступ к публично доступным чатам.
Утечка контента включает в себя не только примеры абзацев и технические вопросы, но и личную информацию, конфиденциальную информацию о совместной работе и даже частную конфиденциальную информацию.
Причиной оказалась функция «Поделиться чатом» — утилита, разработанная OpenAI для того, чтобы пользователи могли делиться содержимым чата с другими. Когда пользователи выбирают «Сделать этот чат видимым», система создаёт публичную ссылку, которую могут индексировать поисковые системы.
Стоит отметить, что интерфейс этой функции недостаточно понятен, из-за чего многие люди ошибочно полагают, что они просто делятся контентом с друзьями или коллегами, а не публикуют его в открытом доступе в сети.
В ответ на негативную реакцию компания OpenAI немедленно приняла меры: приостановила функцию обмена и обратилась в Google с просьбой удалить соответствующие ссылки.
По данным Fast Company, было обнаружено более 4500 таких ссылок, что является значительным числом, учитывая, что у ChatGPT сотни миллионов пользователей по всему миру.
Беспокоит то, что многие люди используют ChatGPT для написания электронных писем, обмена рабочими заданиями, использования медицинской информации или даже для рассказа о личных психологических проблемах, полагая, что это личное пространство.
Тревожные звонки по поводу конфиденциальности в эпоху искусственного интеллекта
Инцидент поднимает серьёзные вопросы об ответственности компаний, работающих в сфере ИИ, за пользовательские данные. Обеспечивает ли OpenAI достаточную прозрачность, позволяющую пользователям понимать важность конфиденциальности? Действительно ли уровень защиты данных, предоставляемый пользователям, соответствует степени конфиденциальности контента?
Генеральный директор OpenAI Сэм Альтман предупредил пользователей не передавать конфиденциальные личные данные в ChatGPT, признав, что компания может быть вынуждена предоставить такую информацию, если этого потребует суд.
Однако примечательно, что Альтман в своих заявлениях не упомянул о том, что разговоры, которыми пользователи добровольно делятся, могут быть публично проиндексированы в поисковых системах.
Более того, это не первый случай, когда ChatGPT подвергается сомнению в связи с утечками данных. Исследователи предупреждают, что крупные языковые модели, такие как GPT, могут «случайно» воссоздавать старые данные, если пользователи задают вопросы нестандартно.
Нельзя отрицать, что такие инструменты, как ChatGPT, произвели революцию в поиске информации и создании контента. Однако, помимо удобства, пользователям следует помнить, что по-настоящему конфиденциальная информация невозможна без серьёзных технологических барьеров и тщательного манипулирования личными данными.
Источник: https://baovanhoa.vn/nhip-song-so/hang-nghin-cuoc-tro-chuyen-chatgpt-bi-ro-ri-cong-khai-tren-google-158723.html
Комментарий (0)