По данным BGR , ChatGPT и Google Bard — это чат-боты на основе искусственного интеллекта, которые многие хотят изучить , и наиболее известным из них является сервис OpenAI. Однако, как бы заманчиво это ни было, есть определенные задачи, которых пользователям следует избегать при взаимодействии с ChatGPT.
Пользователи должны быть осторожны при использовании ChatGPT
Не передавайте личные данные
OpenAI собирает все возможные данные для обучения ChatGPT. Инструмент также будет использовать данные, которые пользователи вводят в чат, поэтому не совершайте ошибку, вводя в него личную информацию. Все это указано в политике конфиденциальности ChatGPT, и пользователи также не могут потребовать от OpenAI удалить эти данные.
Италия и Канада стали первыми странами, которые начали расследование в отношении ChatGPT на предмет проблем с конфиденциальностью. Недавно компания Samsung обнаружила, насколько плох уровень безопасности сервиса, после того как некоторые из ее сотрудников поделились конфиденциальной информацией в разговорах с этим чат-ботом.
Не устанавливайте ненадежные приложения ChatGPT
Привлекательность этого чат-бота на основе искусственного интеллекта делает его инструментом, который хакеры хотят использовать для распространения вредоносного ПО. В нескольких отчетах подробно описываются атаки вредоносного ПО на базе ChatGPT с использованием схожих методов.
Они создают поддельные настоящие приложения и расширения, чтобы заставить пользователей установить их, но на самом деле это вредоносное ПО, которое крадет пользовательские данные. Поэтому не устанавливайте приложения ChatGPT из ненадежных источников. Дважды проверьте, прежде чем загружать и устанавливать что-либо на свой компьютер.
Не забудьте спросить источник информации.
При поиске информации пользователи всегда должны просить чат-бота OpenAI предоставить источники своих утверждений, включая ссылки. Это помогает пользователям гарантировать точность получаемой ими информации. Причина в том, что ИИ может быть невероятно умным, но он все равно ненадежен и может ошибаться, отвечая на вопросы.
Чат-боты на основе искусственного интеллекта могут доставлять массу дезинформации из источников «фейковых новостей»
Любой ИИ может предоставлять ложную информацию, и OpenAI пытается повысить надежность информации, предоставляемой его чат-ботом на основе ИИ. Даже если они основаны на GPT-4, пользователи все равно могут столкнуться с ложной информацией.
Не забывайте об авторских правах
Поскольку OpenAI предоставил ChatGPT так много данных для обучения его большой языковой модели, чат-бот помнит все, включая потенциально защищенные авторским правом материалы. При наличии искусственного интеллекта они могут не воспринимать вопросы авторских прав всерьез, поэтому, используя данные, которые создает ChatGPT для обслуживания своих работ, пользователи могут совершенно непреднамеренно нарушить законы об авторских правах, копируя контент, предоставленный ChatGPT.
Ссылка на источник
Комментарий (0)