Conform BGR , 2024 va fi un moment crucial pentru ca lumea să realizeze dacă inteligența artificială este cu adevărat viitorul informaticii sau doar o nebunie trecătoare. Deși aplicațiile reale ale inteligenței artificiale sunt din ce în ce mai diverse, latura întunecată a acestei tehnologii va fi dezvăluită și prin nenumărate escrocherii în lunile următoare.
Experții antifraudă de la Scams.info tocmai au publicat o listă cu 3 escrocherii bazate pe inteligență artificială de care toată lumea ar trebui să fie atentă în 2024. Regula generală este să fii precaut cu privire la orice este descris prea ostentativ, dar următoarele trucuri necesită o vigilență specială.
Escrocherie de investiții cu inteligență artificială
Companii mari precum Google, Microsoft și OpenAI au investit milioane în inteligența artificială și vor continua să investească masiv în acest an. Escrocii vor profita de acest fapt pentru a vă atrage să investiți în oportunități dubioase. Dacă cineva de pe rețelele de socializare încearcă să vă convingă că inteligența artificială vă va multiplica randamentul investițiilor, gândiți-vă de două ori înainte de a vă deschide portofelul.
Investițiile „bune” cu risc scăzut nu există niciodată.
„Fiți precauți cu investițiile care promit randamente mari cu risc scăzut și asigurați-vă că vă documentați bine înainte de a investi banii”, avertizează Nicholas Crouch de la Scams.info. Noii investitori ar trebui să fie, de asemenea, precauți cu ofertele de recomandare; acestea funcționează adesea ca scheme piramidale, care beneficiază doar de persoanele de top, foarte puțini alți participanți beneficiind.
Uzurparea identității unei rude
Trucul de a te da drept un prieten sau o rudă pentru a împrumuta bani nu este nou, când imitarea vocii escrocului nu este cu adevărat eficientă. Cu toate acestea, cu ajutorul inteligenței artificiale, această înșelătorie va deveni mult mai înfricoșătoare. Doar un videoclip pe YouTube sau o postare pe Facebook cu vocea unei rude, escrocului îi poate folosi inteligența artificială pentru a copia perfect. Poți observa diferența printr-un apel telefonic?
Inteligența artificială poate imita cu ușurință vocea persoanei dragi
Captură de ecran a Washington Post
„Este important ca oamenii să își protejeze conturile de socializare pentru a împiedica escrocii să le fure vocea și informațiile despre familii”, a subliniat Crouch.
Folosirea vocii pentru a ocoli sistemul de securitate
Unele bănci folosesc recunoașterea vocală pentru a verifica utilizatorii atunci când efectuează tranzacții prin telefon. Din motivele menționate mai sus, această metodă este brusc mai puțin sigură decât era înainte. Dacă postați un videoclip sau un clip cu vocea dvs. oriunde pe internet, un atacator poate folosi acel conținut pentru a vă copia vocea. După cum notează Crouch, băncile încă au alte date pentru a verifica identitatea clienților lor, dar această tactică îi aduce pe infractori cu un pas mai aproape de a vă fura contul bancar.
Sistemele de securitate vocală nu mai sunt protejate de puterea inteligenței artificiale
Inteligența artificială are potențialul de a ne schimba fundamental viețile și modul în care interacționăm cu dispozitivele noastre. Este, de asemenea, cel mai recent instrument pe care hackerii și escrocii îl vor folosi pentru a ataca utilizatorii. Așadar, fiți întotdeauna vigilenți și faceți întotdeauna cercetări înainte de a participa la orice activități legate de inteligența artificială.
Legătură sursă

![[Foto] Al treilea Congres de Emulație Patriotică al Comisiei Centrale pentru Afaceri Interne](https://vphoto.vietnam.vn/thumb/1200x675/vietnam/resource/IMAGE/2025/10/30/1761831176178_dh-thi-dua-yeu-nuoc-5076-2710-jpg.webp)

![[Foto] Secretarul general To Lam participă la Conferința economică la nivel înalt Vietnam-Regatul Unit](https://vphoto.vietnam.vn/thumb/1200x675/vietnam/resource/IMAGE/2025/10/30/1761825773922_anh-1-3371-jpg.webp)


![[Foto] Prim-ministrul Pham Minh Chinh participă la cea de-a 5-a ediție a Premiilor Naționale de Presă privind prevenirea și combaterea corupției, risipei și negativității](https://vphoto.vietnam.vn/thumb/1200x675/vietnam/resource/IMAGE/2025/10/31/1761881588160_dsc-8359-jpg.webp)




































































Comentariu (0)