Et team av forskere sier at de klarte å få ChatGPT til å avsløre data ved å be AI-en om å gjenta tilfeldige ord.
Forskere ved Google DeepMind, University of Washington, Cornell University, Carnegie Mellon University, University of California Berkeley og ETH Zurich har oppfordret AI-selskaper til å teste produktene sine grundig, fra store språkmodeller til den underliggende teknologien som driver AI-tjenester som chatboter og bildegeneratorer, før de offisielt lanseres.
Advarselen kom etter at forskere ba ChatGPT om å gjenta ordet «dikt» i en endeløs løkke. ChatGPT etterkom dette, men begynte deretter å avsløre den virkelige e-postadressen og telefonnummeret til administrerende direktør og medgründer av OpenAI. Da chatboten ble testet med ordet «selskap», viste den e-postadressen og telefonnummeret til et tilfeldig advokatfirma.
ChatGPT-logoen vises på smarttelefonen. Foto: Reuters
Ved å bruke andre nøkkelord klarte de også å få ChatGPT til å avsløre Bitcoin-adresser, faksnumre, navn, fødselsdatoer, kontoer på sosiale medier, utdrag fra opphavsrettsbeskyttede forskningsartikler eller betalte artikler fra CNN . Det kostet teamet bare 200 dollar å generere 10 000 eksempler på personlig informasjon og data.
Forskerne sa at de var overrasket, og kalte ChatGPT-sårbarheten «virkelig dum» og sa at den burde ha blitt oppdaget tidligere.
Sårbarheten ble rapportert til OpenAI og oppdatert 30. august. I Engadgets nye test mottok imidlertid teknologinettstedet noens navn og Skype-ID da ChatGPT ble bedt om å gjenta ordet «svar» i det uendelige.
OpenAI har ikke kommentert saken ennå.
Generative AI- er som ChatGPT eller Dall-E tekst-til-bilde-generatoren er bygget på store språkmodeller og maskinlæringsalgoritmer, trent på enorme mengder data uten brukerens samtykke. OpenAI har ikke opplyst hvilke data ChatGPT er trent på fordi den store språkmodellen som driver den er lukket kildekode.
Ifølge Huy Duc - VnExpress
Kilde






Kommentar (0)