Waarom verschijnen ChatGPT-gesprekken op Google en andere internetzoekmachines?
Zoals Dan Tri meldde, verschenen een reeks conversaties tussen gebruikers en ChatGPT plotseling openbaar in de zoekresultaten van Google en andere internetzoekmachines.
Dit komt doordat ChatGPT een weinig bekende functie heeft waarmee gebruikers een link kunnen maken om de inhoud van hun gesprek op ChatGPT te delen met iemand anders of om deze inhoud te delen op sociale netwerken.
Gebruikers kunnen op de knop ‘Delen’ op ChatGPT drukken om de inhoud van het gesprek te delen (schermafbeelding).
Mensen met wie ChatGPT gedeeld wordt, hoeven alleen maar op deze link te klikken om het hele gesprek tussen de gebruiker en ChatGPT te kunnen zien. Zo krijgen ze een beter beeld van de mogelijkheden van ChatGPT en weten ze hoe ChatGPT reageert op een bepaald probleem.
Wanneer u echter op deze deelknop klikt, indexeert Google ook de websitelink met de chatinhoud op ChatGPT. Dit betekent dat de chatinhoud openbaar en doorzoekbaar is op Google.
Veel mensen willen de inhoud van hun gesprekken en ChatGPT eigenlijk alleen maar delen met wat kennissen of delen op sociale netwerken om een of ander doel, maar hebben vrijwel nooit de intentie om de inhoud van het gesprek openbaar te maken op Google en online zoekmachines.
OpenAI werkt samen met Google en andere online zoekmachines om duizenden conversaties tussen gebruikers en ChatGPT op internet te de-indexeren.
Als u nog nooit een link hebt gemaakt om uw chatinhoud te delen met ChatGPT, hoeft u zich hierover geen zorgen te maken.
Is het een probleem als de inhoud van mijn ChatGPT-gesprekken openbaar wordt gemaakt op internet?
Gelukkig tagt ChatGPT geen specifieke gebruikers in de chat. Dit betekent dat als de chatinhoud uitlekt, buitenstaanders niet kunnen weten wie het gesprek met ChatGPT voert.
Wanneer gebruikers echter persoonlijke en privégegevens delen, zoals hun volledige naam, huisadres, e-mailadres, werkgegevens of zelfs hun persoonlijke identificatienummer, bankrekeningnummer... dan kan deze informatie volledig door kwaadwillenden worden overgenomen.
De risico's van het openbaar maken van ChatGPT-gesprekken
- Lekken van persoonlijke informatie: veel gebruikers delen hun persoonlijke en privégegevens openlijk met ChatGPT, zonder te weten dat deze informatie kan lekken. Hierdoor bestaat het risico dat de informatie wordt gestolen en misbruikt door slechteriken.
- Reputatieschade: persoonlijke en privé-informatie die is gekoppeld aan de inhoud van het gesprek met ChatGPT, kan de reputatie van een individu beïnvloeden als het gesprek privé- of gevoelige inhoud bevat.
- Lekken van professionele en werkgerelateerde gegevens: Als ChatGPT wordt gebruikt om te overleggen over werk, projecten of geplande campagnes en het gesprek lekt uit, dan worden de bedrijfsgeheimen aangetast.
Deel nooit persoonlijke, privé- of belangrijke informatie in chats met ChatGPT (Illustratie: Getty).
Opmerkingen om ChatGPT veiliger te gebruiken
Naar aanleiding van dit incident is er één punt van zorg: het veilig gebruiken van ChatGPT in het bijzonder en AI-tools in het algemeen. Deskundigen hebben hiervoor het volgende advies gegeven:
- Deel geen gevoelige, privé-informatie in een gesprek met een AI-tool, niet alleen met ChatGPT.
- Druk niet op de knop om de inhoud van het gesprek met ChatGPT te delen, tenzij absoluut noodzakelijk. Als u wilt delen, controleer dan de inhoud van het gesprek zorgvuldig om er zeker van te zijn dat er geen persoonlijke, vertrouwelijke informatie in staat.
- Wanneer je de inhoud van een gesprek wilt delen, maak dan alleen een screenshot, in plaats van een link naar het gesprek zelf. Vergeet bij het maken van een screenshot niet om de inhoud en persoonlijke informatie in het gesprek te verbergen.
Wees altijd voorzichtig bij het gebruik van AI-chatbottools (illustratie: Pinterest).
Het incident met ChatGPT wordt gezien als een waarschuwing aan de gebruikersgemeenschap om AI-tools niet te veel te vertrouwen met het delen van privé- en persoonlijke informatie. Ook al gebruiken we AI-tools steeds vaker voor werk, studie of onderzoek, toch moeten we altijd voorzichtig en waakzaam zijn met deze tools.
Bron: https://dantri.com.vn/cong-nghe/noi-dung-tro-chuyen-voi-chatgpt-bi-cong-khai-tren-mang-co-dang-lo-ngai-20250804164714417.htm
Reactie (0)