Vietnam.vn - Nền tảng quảng bá Việt Nam

Milhares de conversas do ChatGPT expostas no Google. No que os usuários devem prestar atenção?

A partir do incidente de milhares de conversas de usuários no ChatGPT sendo expostas no Google, especialistas em segurança alertam: a IA é uma ferramenta de suporte útil, mas não uma "caixa preta segura".

Báo Tuổi TrẻBáo Tuổi Trẻ05/08/2025

ChatGPT - Ảnh 1.

Recurso para compartilhar chats via link público no ChatGPT - Foto: Techradar

O ChatGPT agora alcança mais de 2,5 bilhões de consultas de usuários globais todos os dias, o que mostra a crescente popularidade deste chatbot.

No entanto, essa ferramenta está enfrentando uma forte reação dos usuários, já que o recurso de “compartilhamento” fez com que milhares de conversas vazassem informações confidenciais para o Google e alguns mecanismos de busca na Internet.

Alto risco de segurança

O Sr. Vu Ngoc Son - chefe do departamento de tecnologia da National Cyber ​​​​Security Association (NCA) - avaliou que o incidente acima mostra um alto nível de risco de segurança para os usuários do ChatGPT.

“O incidente acima não é necessariamente uma falha técnica, pois há uma certa iniciativa do usuário ao clicar no botão de compartilhamento. No entanto, pode-se dizer que o problema está no design do produto de chatbot de IA, que confundiu os usuários e não há medidas de alerta suficientemente fortes sobre o risco de vazamento de dados pessoais caso os usuários compartilhem”, analisou o Sr. Vu Ngoc Son.

No ChatGPT, esse recurso é implementado depois que o usuário escolhe compartilhar o chat por meio de um link público. O conteúdo será armazenado no servidor da OpenAI como um site público (chatgpt.com/share/...), sem necessidade de login ou senha para acesso.

Os rastreadores do Google examinam e indexam automaticamente essas páginas, fazendo com que elas apareçam nos resultados de pesquisa, incluindo textos confidenciais, imagens ou dados de bate-papo.

Muitos usuários desconheciam o risco, pensando que estavam compartilhando o chat com amigos ou contatos. Isso levou à exposição de milhares de conversas, em alguns casos contendo informações pessoais sensíveis.

Embora a OpenAI tenha removido esse recurso rapidamente no final de julho de 2025 após a reação da comunidade, ainda levou tempo para coordenar com o Google a remoção dos índices antigos. Especialmente com o sistema de armazenamento complexo, que inclui os servidores de cache do Google, isso não pode ser feito rapidamente.

Não trate os chatbots de IA como uma "caixa preta de segurança"

Hàng ngàn cuộc trò chuyện với ChatGPT bị lộ trên Google, người dùng lưu ý gì? - Ảnh 3.

Especialista em segurança de dados Vu Ngoc Son - chefe de tecnologia da National Cyber ​​​​Security Association (NCA) - Foto: CHI HIEU

O vazamento de milhares de registros de bate-papo pode representar riscos aos usuários, como revelar segredos pessoais e comerciais; danos à reputação, riscos financeiros ou até mesmo riscos à segurança devido à revelação de endereços residenciais.

“Os chatbots habilitados por IA são úteis, mas não são uma ‘caixa preta’, pois os dados compartilhados podem existir para sempre na web se não forem controlados.

O incidente acima certamente serve de lição tanto para provedores quanto para usuários. Outros provedores de serviços de IA podem aprender com essa experiência e desenvolver recursos com avisos mais claros e transparentes.

Ao mesmo tempo, os usuários também precisam limitar proativamente a publicação descontrolada de informações pessoais ou de identificação em plataformas de IA", recomendou o especialista em segurança Vu Ngoc Son.

De acordo com especialistas em segurança de dados, o incidente acima demonstra a necessidade de corredores legais e padrões de segurança cibernética para IA. Fornecedores e desenvolvedores de IA também precisam projetar sistemas que garantam a segurança, evitando o risco de vazamento de dados, como: vazamento por vulnerabilidades graves; vulnerabilidades de software que levam a ataques a bancos de dados; controle deficiente que leva a envenenamento; abuso para responder a perguntas falsas e distorcidas.

Os usuários também precisam controlar o compartilhamento de informações pessoais com a IA, evitando o compartilhamento de informações confidenciais. Em caso de real necessidade, é aconselhável usar o modo anônimo ou criptografar ativamente as informações para evitar que os dados sejam vinculados diretamente a indivíduos específicos.

Voltar ao tópico
Piedade filial

Fonte: https://tuoitre.vn/hang-ngan-cuoc-tro-chuyen-voi-chatgpt-bi-lo-tren-google-nguoi-dung-luu-y-gi-20250805152646255.htm


Comentário (0)

No data
No data

No mesmo tópico

Na mesma categoria

Jovens vão ao Noroeste para fazer check-in durante a mais bela temporada de arroz do ano
Na época de "caça" ao junco em Binh Lieu
No meio da floresta de mangue de Can Gio
Pescadores de Quang Ngai embolsam milhões de dongs todos os dias após ganharem na loteria com camarão

Do mesmo autor

Herança

Figura

Negócios

Com lang Vong - o sabor do outono em Hanói

Eventos atuais

Sistema político

Local

Produto