Recurso para compartilhar chats via link público no ChatGPT - Foto: Techradar
O ChatGPT agora alcança mais de 2,5 bilhões de consultas de usuários globais todos os dias, o que mostra a crescente popularidade deste chatbot.
No entanto, essa ferramenta está enfrentando uma forte reação dos usuários, já que o recurso de “compartilhamento” fez com que milhares de conversas vazassem informações confidenciais para o Google e alguns mecanismos de busca na Internet.
Alto risco de segurança
O Sr. Vu Ngoc Son - chefe do departamento de tecnologia da National Cyber Security Association (NCA) - avaliou que o incidente acima mostra um alto nível de risco de segurança para os usuários do ChatGPT.
“O incidente acima não é necessariamente uma falha técnica, pois há uma certa iniciativa do usuário ao clicar no botão de compartilhamento. No entanto, pode-se dizer que o problema está no design do produto de chatbot de IA, que confundiu os usuários e não há medidas de alerta suficientemente fortes sobre o risco de vazamento de dados pessoais caso os usuários compartilhem”, analisou o Sr. Vu Ngoc Son.
No ChatGPT, esse recurso é implementado depois que o usuário escolhe compartilhar o chat por meio de um link público. O conteúdo será armazenado no servidor da OpenAI como um site público (chatgpt.com/share/...), sem necessidade de login ou senha para acesso.
Os rastreadores do Google examinam e indexam automaticamente essas páginas, fazendo com que elas apareçam nos resultados de pesquisa, incluindo textos confidenciais, imagens ou dados de bate-papo.
Muitos usuários desconheciam o risco, pensando que estavam compartilhando o chat com amigos ou contatos. Isso levou à exposição de milhares de conversas, em alguns casos contendo informações pessoais sensíveis.
Embora a OpenAI tenha removido esse recurso rapidamente no final de julho de 2025 após a reação da comunidade, ainda levou tempo para coordenar com o Google a remoção dos índices antigos. Especialmente com o sistema de armazenamento complexo, que inclui os servidores de cache do Google, isso não pode ser feito rapidamente.
Não trate os chatbots de IA como uma "caixa preta de segurança"
Especialista em segurança de dados Vu Ngoc Son - chefe de tecnologia da National Cyber Security Association (NCA) - Foto: CHI HIEU
O vazamento de milhares de registros de bate-papo pode representar riscos aos usuários, como revelar segredos pessoais e comerciais; danos à reputação, riscos financeiros ou até mesmo riscos à segurança devido à revelação de endereços residenciais.
“Os chatbots habilitados por IA são úteis, mas não são uma ‘caixa preta’, pois os dados compartilhados podem existir para sempre na web se não forem controlados.
O incidente acima certamente serve de lição tanto para provedores quanto para usuários. Outros provedores de serviços de IA podem aprender com essa experiência e desenvolver recursos com avisos mais claros e transparentes.
Ao mesmo tempo, os usuários também precisam limitar proativamente a publicação descontrolada de informações pessoais ou de identificação em plataformas de IA", recomendou o especialista em segurança Vu Ngoc Son.
De acordo com especialistas em segurança de dados, o incidente acima demonstra a necessidade de corredores legais e padrões de segurança cibernética para IA. Fornecedores e desenvolvedores de IA também precisam projetar sistemas que garantam a segurança, evitando o risco de vazamento de dados, como: vazamento por vulnerabilidades graves; vulnerabilidades de software que levam a ataques a bancos de dados; controle deficiente que leva a envenenamento; abuso para responder a perguntas falsas e distorcidas.
Os usuários também precisam controlar o compartilhamento de informações pessoais com a IA, evitando o compartilhamento de informações confidenciais. Em caso de real necessidade, é aconselhável usar o modo anônimo ou criptografar ativamente as informações para evitar que os dados sejam vinculados diretamente a indivíduos específicos.
Fonte: https://tuoitre.vn/hang-ngan-cuoc-tro-chuyen-voi-chatgpt-bi-lo-tren-google-nguoi-dung-luu-y-gi-20250805152646255.htm
Comentário (0)