
Professor Toby Walsh kommenterte med pressen på Science for Life-seminaret at AI-svindel er i ferd med å bli en stor utfordring i mange land, inkludert Vietnam.
Ifølge professor Toby Walsh er den enkleste måten å beskytte seg på å bekrefte kilden til informasjonen. Han anbefaler at brukere, når de mottar en samtale, e-post eller tekstmelding som hevder å være fra en bank eller finansinstitusjon, bør sjekke ved å ringe direkte til hjelpelinjen, og unngå å svare på instruksjoner fra fremmede.
Han sa at selv videosamtaler , e-poster eller telefonnumre kan forfalskes med stadig mer sofistikerte AI-verktøy. For familien sin bruker han et «hemmelig spørsmål» som bare familiemedlemmer kjenner til for å autentisere identiteten og unngå å bli utnyttet. Dette er en metode som, ifølge ham, alle vietnamesiske familier også kan bruke for å øke informasjonsbeskyttelsen.

Professor Toby Walsh understreket at regulering må være obligatorisk i en bredere diskusjon om utviklingen av ansvarlig kunstig intelligens. Med så mye profitt fra kunstig intelligens sa han at «bare et strengt juridisk rammeverk kan sikre riktig oppførsel og balansere offentlig interesse med kommersielle interesser».
På et spørsmål om ansvar når KI gjør feil, bekreftet han: «KI er ikke menneskelig, den kan ikke holdes ansvarlig. Det er selskapene som distribuerer og driver KI-systemer som må være ansvarlige for konsekvensene.» Dette er også poenget som, ifølge ham, nasjonale lover ikke har innhentet.
Mens Vietnam utarbeider KI-loven, bemerket professor Toby Walsh, som har mange års erfaring med forskning på KI, at det ikke alltid er behov for nye lover fordi mange forskrifter om personvern eller konkurranse allerede kan anvendes i det digitale miljøet. Imidlertid dukker det opp noen nye risikoer, som at brukere ser på KI som «terapeuter», noe som fører til psykisk skade. Ifølge ham må KI-selskaper også være ansvarlige når produktene deres forårsaker skade.
Professor Toby Walsh nevnte spesifikt risikoen for at barn blir negativt påvirket av AI, i likhet med sosiale medier. Han viste til eksemplet med Australias kommende aldersgrense for bruk av sosiale medier, og foreslo at land bør ha lignende beskyttelse for AI.
Når det gjelder data, «drivstoffet» til AI, advarte han om at for mye slapphet ville være skadelig. Å bruke en forfatters verk til å trene AI uten tillatelse er «tyveri», og uten en løsning som musikkstrømmemodellen vil forfattere miste motivasjonen til å skape. Professor Toby Walsh bemerket at Vietnam må ta drastiske grep for å beskytte sin egen kultur, språk og interesser i AI-æraen.
Kilde: https://www.sggp.org.vn/vien-si-cua-hiep-hoi-may-tinh-hoa-ky-chia-se-bi-kip-tranh-lua-dao-su-dung-ai-post826821.html






Kommentar (0)