Vietnam.vn - Nền tảng quảng bá Việt Nam

Tysiące rozmów ChatGPT ujawnionych w Google. Na co powinni zwrócić uwagę użytkownicy?

Eksperci ds. bezpieczeństwa ostrzegają: sztuczna inteligencja jest przydatnym narzędziem wsparcia, ale nie „czarną skrzynką” w związku z incydentem ujawnienia tysięcy rozmów użytkowników ChatGPT w serwisie Google.

Báo Tuổi TrẻBáo Tuổi Trẻ05/08/2025

ChatGPT - Ảnh 1.

Funkcja udostępniania czatów za pośrednictwem łącza publicznego w ChatGPT – Zdjęcie: Techradar

Obecnie ChatGPT otrzymuje ponad 2,5 miliarda zapytań od użytkowników z całego świata każdego dnia, co pokazuje rosnącą popularność tego chatbota.

Narzędzie to spotyka się jednak z silną krytyką ze strony użytkowników, gdyż funkcja „udostępniania” spowodowała wyciek poufnych informacji z tysięcy konwersacji do Google i niektórych wyszukiwarek w Internecie.

Wysokie ryzyko bezpieczeństwa

Pan Vu Ngoc Son – szef działu technologii w National Cyber ​​Security Association (NCA) – ocenił, że powyższy incydent świadczy o wysokim poziomie zagrożenia bezpieczeństwa dla użytkowników ChatGPT.

„Powyższy incydent niekoniecznie oznacza wadę techniczną, ponieważ kliknięcie przycisku udostępniania jest inicjatywą użytkownika. Można jednak stwierdzić, że problem leży w konstrukcji chatbota opartego na sztucznej inteligencji, który wprowadza użytkowników w błąd i nie zapewnia wystarczająco silnych środków ostrzegawczych przed ryzykiem wycieku danych osobowych w przypadku udostępnienia treści przez użytkowników” – analizuje Vu Ngoc Son.

W ChatGPT funkcja ta jest wdrażana po tym, jak użytkownik zdecyduje się udostępnić czat za pomocą publicznego łącza. Zawartość czatu zostanie zapisana na serwerze OpenAI w formie publicznej witryny internetowej (chatgpt.com/share/...). Aby uzyskać dostęp, nie jest wymagane logowanie ani hasło.

Roboty Google automatycznie skanują i indeksują te strony, dzięki czemu pojawiają się one w wynikach wyszukiwania wraz z poufnymi tekstami, obrazami i danymi czatów.

Wielu użytkowników nie zdawało sobie sprawy z zagrożenia, myśląc, że udostępnia czat znajomym lub kontaktom. Doprowadziło to do ujawnienia tysięcy rozmów, w niektórych przypadkach zawierających poufne dane osobowe.

Chociaż OpenAI szybko usunął tę funkcję pod koniec lipca 2025 roku po fali krytyki ze strony społeczności, koordynacja działań z Google w celu usunięcia starych indeksów zajęła trochę czasu. Zwłaszcza w przypadku złożonego systemu przechowywania danych, który obejmuje serwery pamięci podręcznej Google, nie jest to możliwe.

Nie traktuj chatbotów AI jako „czarnej skrzynki bezpieczeństwa”

Hàng ngàn cuộc trò chuyện với ChatGPT bị lộ trên Google, người dùng lưu ý gì? - Ảnh 3.

Ekspert ds. bezpieczeństwa danych Vu Ngoc Son – szef działu technologii w National Cyber ​​Security Association (NCA) – zdjęcie: CHI HIEU

Wyciek tysięcy logów czatów może narazić użytkowników na ryzyko, np. ujawnienie tajemnic osobistych i biznesowych, utratę reputacji, ryzyko finansowe, a nawet zagrożenie bezpieczeństwa w związku z ujawnieniem adresów domowych.

„Czatboty oparte na sztucznej inteligencji są przydatne, ale nie są „czarną skrzynką”, ponieważ udostępniane dane mogą pozostać w sieci na zawsze, jeśli nie zostaną sprawdzone.

Powyższy incydent jest z pewnością lekcją zarówno dla dostawców, jak i użytkowników. Inni dostawcy usług AI mogą wyciągnąć wnioski z tego doświadczenia i zaprojektować funkcje z jaśniejszymi i bardziej przejrzystymi ostrzeżeniami.

Jednocześnie użytkownicy muszą proaktywnie ograniczać niekontrolowane publikowanie danych identyfikacyjnych lub osobowych na platformach AI — zaleca ekspert ds. bezpieczeństwa Vu Ngoc Son.

Według ekspertów ds. bezpieczeństwa danych, powyższy incydent wskazuje na potrzebę wprowadzenia prawnych korytarzy i standardów cyberbezpieczeństwa dla sztucznej inteligencji. Dostawcy i deweloperzy rozwiązań AI muszą również projektować systemy zapewniające bezpieczeństwo, unikając ryzyka wycieku danych, takiego jak: wyciek poprzez luki w zabezpieczeniach; luki w oprogramowaniu prowadzące do ataków na bazy danych; słaba kontrola prowadząca do zatruwania danych, nadużyć w celu udzielania odpowiedzi na fałszywe i zniekształcone pytania.

Użytkownicy muszą również kontrolować udostępnianie danych osobowych sztucznej inteligencji, a nie udostępnianie informacji poufnych. W razie realnej potrzeby zaleca się korzystanie z trybu anonimowego lub aktywne szyfrowanie informacji, aby uniknąć bezpośredniego powiązania danych z konkretnymi osobami.

Powrót do tematu
Synowska pobożność

Source: https://tuoitre.vn/hang-ngan-cuoc-tro-chuyen-voi-chatgpt-bi-lo-tren-google-nguoi-dung-luu-y-gi-20250805152646255.htm


Komentarz (0)

No data
No data

W tym samym temacie

W tej samej kategorii

Odkryj jedyną wioskę w Wietnamie, która znajduje się w pierwszej pięćdziesiątce najpiękniejszych wiosek na świecie
Dlaczego czerwone lampiony z żółtymi gwiazdami cieszą się w tym roku popularnością?
Wietnam wygrywa konkurs muzyczny Intervision 2025
Korek na Mu Cang Chai do wieczora, turyści gromadzą się, by polować na dojrzały ryż w sezonie

Od tego samego autora

Dziedzictwo

Postać

Biznes

No videos available

Aktualności

System polityczny

Lokalny

Produkt