Największy bank w Ameryce, JPMorgan Chase, Amazon i firma technologiczna Accenture nałożyły na swoich pracowników ograniczenia korzystania z ChatGPT ze względu na obawy dotyczące bezpieczeństwa danych.
Według CNN obawy tych firm są całkowicie uzasadnione. 20 marca chatbot OpenAI napotkał błąd, który ujawnił dane użytkowników. Chociaż błąd został szybko naprawiony, firma ujawniła, że incydent dotyczył 1,2% użytkowników ChatGPT Plus. Wyciekłe informacje obejmowały imiona i nazwiska, adresy e-mail, adresy rozliczeniowe, cztery ostatnie cyfry numerów kart kredytowych oraz daty ważności kart.
31 marca włoski organ ochrony danych (Garante) wydał tymczasowy zakaz korzystania z ChatGPT, powołując się na obawy dotyczące prywatności po tym, jak OpenAI ujawniło lukę w zabezpieczeniach.
Mark McCreary, współprzewodniczący ds. bezpieczeństwa danych i prywatności w kancelarii prawnej Fox Rothschild LLP, powiedział CNN, że obawy dotyczące bezpieczeństwa związane z ChatGPT nie są przesadzone. Porównał chatbota opartego na sztucznej inteligencji do „czarnej skrzynki”.
ChatGPT został uruchomiony przez OpenAI w listopadzie 2022 roku i szybko zyskał popularność dzięki możliwości pisania esejów, opowiadań czy tekstów piosenek za pomocą podpowiedzi. Giganci technologiczni, tacy jak Google i Microsoft, również wprowadzili na rynek narzędzia AI, które działają podobnie, oparte na dużych modelach językowych trenowanych na ogromnych internetowych bazach danych.
Po decyzji Włoch Niemcy również rozważają zakazanie ChatGPT
Kiedy użytkownicy wprowadzają informacje do tych narzędzi, nie wiedzą, jak zostaną one wykorzystane – dodał pan McCreay. Jest to niepokojące dla firm, ponieważ coraz więcej pracowników korzysta z narzędzi ułatwiających pisanie służbowych e-maili lub robienie notatek na spotkaniach, co zwiększa ryzyko ujawnienia tajemnic handlowych.
Steve Mills, dyrektor ds. etyki AI w Boston Consulting Group (BCG), powiedział, że firmy obawiają się przypadkowego ujawnienia przez pracowników poufnych informacji. Jeśli dane wprowadzane przez pracowników są wykorzystywane do szkolenia tego narzędzia AI, oznacza to, że oddali oni kontrolę nad danymi komuś innemu.
Zgodnie z polityką prywatności OpenAI, firma może gromadzić wszelkie dane osobowe i inne informacje od użytkowników usług w celu ulepszania swoich modeli sztucznej inteligencji. Informacje te mogą być wykorzystywane do ulepszania lub analizowania swoich usług, prowadzenia badań, komunikowania się z użytkownikami oraz opracowywania nowych programów i usług.
Polityka prywatności stanowi, że OpenAI może udostępniać dane osobowe stronom trzecim bez powiadamiania użytkowników, chyba że wymaga tego prawo. OpenAI posiada również własny dokument „Warunki korzystania z usługi”, ale firma w dużej mierze nakłada na użytkowników obowiązek podjęcia odpowiednich środków podczas interakcji z narzędziami AI.
Właściciele ChatGPT opublikowali na swoim blogu wpis na temat swojego podejścia do bezpiecznej sztucznej inteligencji. Firma podkreśla, że nie wykorzystuje danych do sprzedaży usług, reklamowania się ani tworzenia profili użytkowników. Zamiast tego OpenAI wykorzystuje dane, aby zwiększyć użyteczność swoich modeli. Na przykład rozmowy użytkowników będą wykorzystywane do trenowania ChatGPT.
Polityka prywatności ChatGPT jest uważana za dość niejasną.
Google, firma stojąca za Bard AI, wprowadziła dodatkowe zasady ochrony prywatności dla użytkowników swojej sztucznej inteligencji. Firma będzie wybierać niewielką część rozmów i za pomocą zautomatyzowanych narzędzi usuwać dane osobowe, co pomoże ulepszyć Bard, chroniąc jednocześnie prywatność użytkowników.
Przykładowe rozmowy będą analizowane przez trenerów i przechowywane przez maksymalnie trzy lata, niezależnie od konta Google użytkownika. Google przypomina również użytkownikom, aby nie zamieszczali w rozmowach w Bard AI danych osobowych dotyczących siebie lub innych osób. Gigant technologiczny podkreśla, że rozmowy te nie będą wykorzystywane do celów reklamowych i w przyszłości ogłosi zmiany.
Bard AI pozwala użytkownikom zrezygnować z zapisywania konwersacji na kontach Google, a także przeglądać je lub usuwać za pośrednictwem linku. Dodatkowo firma stosuje zabezpieczenia, które uniemożliwiają Bardowi dodawanie danych osobowych do odpowiedzi.
Steve Mills twierdzi, że użytkownicy i programiści czasami odkrywają zagrożenia bezpieczeństwa ukryte w nowych technologiach dopiero wtedy, gdy jest już za późno. Na przykład funkcje autouzupełniania mogą przypadkowo ujawnić numery ubezpieczenia społecznego użytkowników.
Użytkownicy nie powinni umieszczać w tych narzędziach niczego, czym nie chcieliby się dzielić z innymi – powiedział pan Mills.
Link źródłowy
Komentarz (0)