Egy kutatócsoport azt állítja, hogy sikerült rávenniük a ChatGPT-t bizonyos adatok közlésére azáltal, hogy arra utasították a mesterséges intelligenciát, hogy ismételjen véletlenszerű szavakat.
A Google DeepMind, a Washingtoni Egyetem, a Cornell Egyetem, a Carnegie Mellon Egyetem, a Kaliforniai Berkeley Egyetem és az ETH Zürich kutatói felszólították a mesterséges intelligencia alapú vállalatokat, hogy alaposan teszteljék termékeiket, a nagy nyelvi modellektől kezdve az olyan mesterséges intelligencia szolgáltatásokat működtető mögöttes technológiáig, mint a chatbotok és a képgenerátorok, mielőtt hivatalosan is piacra dobnák azokat.
A figyelmeztetés azután érkezett, hogy a kutatók arra kérték a ChatGPT-t , hogy végtelen ciklusban ismételje meg a szóverset. A ChatGPT eleget tett a kérésnek, de ezután elkezdte felfedni az OpenAI vezérigazgatójának és társalapítójának valódi e-mail címét és telefonszámát. Amikor a „company” szóval tesztelték, a chatbot egy véletlenszerű ügyvédi iroda e-mail címét és telefonszámát jelenítette meg.
ChatGPT logó okostelefonon. Fotó: Reuters
Más kulcsszavak használatával a ChatGPT segítségével Bitcoin-címeket, faxszámokat, neveket, születési dátumokat, közösségi média fiókokat, szerzői joggal védett kutatási cikkekből származó részleteket vagy a CNN fizetett cikkeit is meg tudták tárni. A csapatnak mindössze 200 dollárba került 10 000 személyes információ és adat előállítása.
A kutatók meglepődtek, a ChatGPT sebezhetőséget "nagyon ostobának" nevezték, és azt mondták, hogy hamarabb fel kellett volna fedezni.
A sebezhetőséget jelentették az OpenAI-nak, és augusztus 30-án kijavították. Az Engadget új tesztjében azonban, amikor a ChatGPT-t arra kérték, hogy végtelenül ismételje meg a „válasz” szót, a technikai oldal megkapta valakinek a nevét és Skype-azonosítóját.
Az OpenAI még nem kommentálta az ügyet.
Az olyan generatív mesterséges intelligenciák, mint a ChatGPT vagy a Dall-E szöveg-kép generátor, nagyméretű nyelvi modellekre és gépi tanulási algoritmusokra épülnek, és hatalmas mennyiségű adaton, felhasználói beleegyezés nélkül képzik őket. Az OpenAI nem hozta nyilvánosságra, hogy a ChatGPT-t milyen adatokon képzik, mivel a nagyméretű nyelvi modell, amely működteti, zárt forráskódú.
Huy Duc szerint - VnExpress
Forrás






Hozzászólás (0)