Prywatne rozmowy stają się danymi publicznymi
Tysiące prywatnych konwersacji zostało zindeksowanych przez Google, według raportu Fast Company. To może być zaledwie „wierzchołek góry lodowej”, a miliony innych potencjalnie mogą zostać ujawnione.
Choć rozmowy te nie dotyczyły informacji umożliwiających bezpośrednią identyfikację, wielu użytkowników dzieliło się niezwykle wrażliwymi szczegółami osobistymi, dotyczącymi m.in. relacji czy traumatycznych przeżyć, co umożliwiło identyfikację.
Wszystko zaczęło się, gdy eksperci ds. cyberbezpieczeństwa odkryli, że za pomocą jednego zapytania w Google użytkownicy mogą łatwo uzyskać dostęp do publicznie udostępnianych czatów.
Wyciekłe treści nie ograniczają się do przykładowych akapitów i pytań technicznych, ale obejmują również informacje osobiste, poufne informacje dotyczące udostępniania prac, a nawet prywatne poufne informacje.
Przyczyną okazała się funkcja „Udostępnij czat”, narzędzie wdrożone przez OpenAI, które ułatwia użytkownikom udostępnianie treści czatu innym osobom. Po wybraniu przez użytkownika opcji „Uczyń ten czat widocznym”, system utworzy publiczny link, który może zostać zindeksowany przez wyszukiwarki.
Warto wspomnieć, że interfejs tej funkcji nie jest wystarczająco przejrzysty, przez co wiele osób błędnie rozumie, że udostępnia treść jedynie znajomym lub współpracownikom, a nie upublicznia ją w Internecie.
W odpowiedzi na krytykę OpenAI podjęło natychmiastowe działania: wstrzymało udostępnianie swoich ustaleń i we współpracy z Google usunęło istotne linki.
Według Fast Company odkryto ponad 4500 takich linków, co nie jest małą liczbą, biorąc pod uwagę, że ChatGPT ma setki milionów użytkowników na całym świecie.
Niepokojące jest to, że wiele osób używa ChatGPT do pisania e-maili, wymieniania się informacjami służbowymi, wykorzystywania informacji medycznych , a nawet zwierzania się z osobistych problemów psychologicznych, wierząc, że jest to przestrzeń prywatna.
W dobie sztucznej inteligencji rozbrzmiewają alarmy dotyczące prywatności
Incydent ten rodzi poważne pytania dotyczące odpowiedzialności firm z branży sztucznej inteligencji za dane użytkowników. Czy OpenAI zapewnia użytkownikom wystarczającą transparentność, aby mogli zrozumieć swoje prawa do prywatności? Czy poziom ochrony danych, jaki otrzymują użytkownicy, jest rzeczywiście adekwatny do wrażliwości treści?
Dyrektor generalny OpenAI, Sam Altman, ostrzegł użytkowników przed udostępnianiem poufnych danych osobowych firmie ChatGPT, przyznając, że firma może zostać zmuszona do udostępnienia takich informacji, jeśli będzie tego wymagał sąd.
Warto jednak zauważyć, że w swoich oświadczeniach Altman nie wspomniał, że rozmowy, którymi użytkownicy dobrowolnie się dzielą, mogą być publicznie indeksowane w wyszukiwarkach.
Co więcej, to nie pierwszy raz, kiedy ChatGPT jest kwestionowany w kontekście wycieków danych. Naukowcy ostrzegają, że duże modele językowe, takie jak GPT, mogą „przypadkowo” odtworzyć stare dane, jeśli użytkownicy zadają pytania w sprytny sposób.
Nie da się zaprzeczyć, że narzędzia takie jak ChatGPT zrewolucjonizowały sposób, w jaki ludzie wyszukują informacje i tworzą treści. Jednak oprócz wygody, użytkownicy muszą mieć świadomość, że nic nie jest naprawdę prywatne bez silnych barier technologicznych i starannego podejścia do kwestii prywatności.
Źródło: https://baovanhoa.vn/nhip-song-so/hang-nghin-cuoc-tro-chuyen-chatgpt-bi-ro-ri-cong-khai-tren-google-158723.html
Komentarz (0)