
Amenințări mai sofisticate vizează direct integritatea și fiabilitatea modelelor de inteligență artificială.
Prin urmare, până în 2026, domeniul securității cibernetice va deveni mai complex, cea mai mare amenințare venind din „maturitatea” atacurilor cibernetice care utilizează inteligența artificială (IA).
Atac cu o nouă tehnologie de la inteligența artificială
Potrivit Fortinet, dezvoltarea inteligenței artificiale generative a „democratizat” tehnologia, aducând o eficiență ridicată, dar în același timp oferind control mai multor persoane, crescând riscurile de securitate.
Modelele de inteligență artificială duc lipsă de transparență, iar încărcarea datelor sensibile în cloud crește potențialul de scurgeri de informații personale și de proprietate intelectuală.
În special, actorii rău intenționați dezvoltă metode sofisticate pentru a exploata vulnerabilitățile din inteligența artificială.
Printre formele de atacuri asupra modelelor se numără manipularea datelor de intrare pentru a păcăli inteligența artificială să facă predicții false, atacuri de „otrăvire” a datelor și, cea mai periculoasă formă, injecția promptă – încorporarea de instrucțiuni ascunse care determină inteligența artificială să ocolească regulile de siguranță sau să execute comenzi rău intenționate.
Până în 2026, modelele de inteligență artificială vor avea acces la date mai sensibile și la comunicare automată între agenții tehnologici, permițând atacuri la scară largă.
Deepfake și manipulare psihologică la nivel înalt.
Pe lângă acestea, se preconizează că Deepfake va duce frauda și manipularea psihologică (ingineria socială) la un nou nivel. Inteligența artificială are capacitatea de a crea sunete, imagini și videoclipuri care sunt aproape imposibil de distins între reale și false.
Deepfake-as-a-Service va fi utilizat pe scară largă pentru a efectua atacuri extrem de direcționate, cum ar fi compromiterea e-mailurilor de afaceri (BEC), phishing-ul și extorcarea, forțând organizațiile să confrunte dezinformarea într-un mod mult mai dificil de controlat.
În plus, simplificarea spionajului prin intermediul inteligenței artificiale, combinată cu creșterea grupurilor de criminalitate cibernetică „de servicii” și sponsorizate, va continua să alimenteze atacurile care vizează organizații multinaționale de miliarde de dolari.
Noi ținte de atac
Pe lângă inteligența artificială, tehnologiile emergente creează și noi ținte pentru atacatori. Sistemele GPS spațiale au fost identificate ca o țintă principală, unde actorii rău intenționați ar putea bruia, bloca sau falsifica semnale pentru a submina infrastructura critică.
Explozia internetului prin satelit vine și cu riscuri, deoarece datele necriptate pot fi interceptate cu ușurință folosind receptoare simple. În același timp, informatica cuantică, deși nu reprezintă o amenințare imediată, rămâne un avertisment serios; computerele cuantice pot sparge aproape orice criptare existentă, permițând atacatorilor să folosească o strategie de tip „colectează mai întâi datele, decriptează mai târziu” în timp ce așteaptă ca tehnologia să se maturizeze.
În contextul atacurilor cibernetice din ce în ce mai periculoase, managerii de securitate cibernetică trebuie să își schimbe vechile metode de lucru. Trebuie să fie mai mult decât simpli experți tehnici; trebuie să devină strategi, transformând securitatea într-un factor care ajută compania să crească și să devină mai de încredere. Trebuie să utilizeze inteligența artificială pentru a detecta și opri rapid atacurile. Mai important, trebuie să protejeze riguros sistemele de inteligență artificială ale companiei.
Sursă: https://tuoitre.vn/nam-2026-the-gioi-se-bi-sieu-tan-cong-mang-chua-tung-co-vi-ai-bi-thao-tung-20251208160719164.htm










Comentariu (0)