Conform BGR , 2024 va fi un an crucial pentru ca lumea să realizeze dacă inteligența artificială este cu adevărat viitorul informaticii sau doar o modă trecătoare. În timp ce aplicațiile autentice ale inteligenței artificiale devin din ce în ce mai diverse, latura întunecată a acestei tehnologii va fi dezvăluită și prin nenumărate escrocherii în lunile următoare.
Experții antifraudă de la Scams.info tocmai au publicat o listă cu 3 escrocherii bazate pe inteligență artificială de care oamenii trebuie să fie precauți în 2024. Regula generală este să fii precaut cu privire la orice pare prea atrăgător, dar schemele de mai jos necesită o vigilență deosebit de sporită.
Escrocherii cu investiții bazate pe inteligență artificială
Jucători importanți precum Google, Microsoft și OpenAI au investit milioane de dolari în inteligența artificială și vor continua să investească masiv în acest an. Escrocii vor profita de acest fapt pentru a vă atrage să investiți în oportunități dubioase. Dacă cineva de pe rețelele de socializare încearcă să vă convingă că inteligența artificială vă va multiplica randamentul investițiilor, gândiți-vă de două ori înainte de a vă deschide portofelul.
„Ofertele excelente” și investițiile cu risc scăzut nu există niciodată cu adevărat.
„Fiți precauți cu investițiile care promit randamente mari cu risc scăzut și asigurați-vă că faceți cercetări amănunțite înainte de a investi banii în ele”, avertizează expertul Nicholas Crouch de la Scams.info. Noii investitori ar trebui să fie, de asemenea, precauți cu ofertele care le cer să recomande noi membri; acestea funcționează adesea pe un model de marketing pe mai multe niveluri (MLM), beneficiind doar cei aflați în vârf, în timp ce alți participanți rareori beneficiază.
Uzurparea identității unei rude
Escrocheria de a se da drept prieteni sau rude pentru a împrumuta bani nu este nimic nou, deoarece imitarea vocii nu este foarte eficientă. Cu toate acestea, cu inteligența artificială, acest tip de escrocherie devine mult mai insidioasă. Tot ce este nevoie este un videoclip de pe YouTube sau o postare pe Facebook care conține vocea unei rude, iar escrocului îi poate folosi inteligența artificială pentru a o reproduce perfect. Ai putea observa diferența în timpul unui apel telefonic?
Inteligența artificială poate imita cu ușurință vocile celor dragi.
Captură de ecran de la Washington Post
„Este crucial ca oamenii să își protejeze conturile de socializare pentru a împiedica escrocii să colecteze înregistrări vocale și informații despre familie”, a subliniat Crouch.
Folosirea comenzilor vocale pentru a ocoli sistemele de securitate.
Unele bănci folosesc recunoașterea vocală pentru a verifica utilizatorii atunci când efectuează tranzacții prin telefon. Din motivele menționate mai sus, această metodă a devenit brusc mai puțin sigură decât înainte. Dacă postați videoclipuri sau clipuri care vă conțin vocea oriunde pe internet, actorii rău intenționați pot folosi acel conținut pentru a vă copia vocea. După cum notează Crouch, băncile încă au alte date pentru a verifica identitatea clienților, dar această tactică îi aduce pe infractori mai aproape de a vă fura contul bancar.
Sistemele de securitate bazate pe voce nu mai sunt protejate de puterea inteligenței artificiale.
Inteligența artificială are potențialul de a ne schimba fundamental viețile și modul în care interacționăm cu dispozitivele. Este, de asemenea, cel mai recent instrument pe care hackerii și escrocii îl vor folosi pentru a ataca utilizatorii. Prin urmare, este esențial să rămânem vigilenți și să efectuăm cercetări amănunțite înainte de a ne angaja în orice activitate care implică inteligența artificială.
Legătură sursă






Comentariu (0)