Vietnam.vn - Nền tảng quảng bá Việt Nam

Yapay zekâ çağında veri güvenliği.

Deepfake'ler, kimlik avı saldırıları ve dijital kimlik hırsızlığı giderek daha karmaşık hale geliyor ve dijital savunma becerilerinden yoksun herkesi hedef alarak her an saldırabiliyor.

Báo Sài Gòn Giải phóngBáo Sài Gòn Giải phóng18/11/2025

Her açıdan saldırın.

Google, "Gemini Nano Banana" adında yeni bir yapay zeka (YZ) ürünü piyasaya sürdü. Bu ürün, yazma ve mantık yürütme yeteneğine sahip büyük ölçekli bir dilsel yapay zeka (YZ) değil, fotoğraf düzenleme konusunda uzmanlaşmış bir YZ... Birçok kullanıcı bu araçtan heyecan duyuyor, ancak beraberinde bir dizi dezavantaj da getiriyor.

S4c.jpg
Ho Chi Minh Şehri, Cau Ong Lanh Mahallesi'ndeki Tran Hung Dao İlkokulu, yoklama almak ve velilere uygulama üzerinden bildirim göndermek için yüz tanıma sistemi kullanıyor. Fotoğraf: HOANG HUNG

Conductify AI'nin Baş Bilimsel Sorumlusu Nguyen Hong Phuc, kişisel görüşünü dile getirerek, "Bu, yapay zeka teknolojisi ve etik sınırlamalar açısından bir 'geri adım' gibi," dedi. Phuc, "Gemini Nano Banana etkili görüntü düzenleme yeteneklerine sahip. Ancak Google'ın Gemini Nano Banana'yı sansürsüz bırakması, engelleri ve sınırlayıcı mekanizmaları gevşetmesi, bu yapay zekanın ünlülere inanılmaz derecede benzeyen, müstehcen, hassas görüntüler vb. oluşturmasına olanak tanıyor," diye ekledi.

Bay Nguyen Hong Phuc'a göre, bu yetenek Gemini Nano Banana'yı gerçekçi sahte görüntüler oluşturmak için bir araç haline getiriyor; öyle ki yapay zeka uzmanları bile bunları ayırt edemiyor. Bu durum, sahtekarlık ve siber güvenlik açısından yeni risklere yol açıyor; örneğin, ünlü politikacılarla sahte fotoğraflar oluşturarak yanlış bilgiler yaymak ve hatta bireylerin sosyal medyada yapay zeka tarafından üretilen fotoğraf manipülasyonuna ve karalamaya maruz kalması gibi...

Ayrıca, interneti kasıp kavuran düzinelerce diğer yapay zeka fotoğraf düzenleme aracıyla birlikte, deepfake dolandırıcılıkları durma belirtisi göstermiyor. Güvenlik kuruluşlarından elde edilen istatistikler, deepfake teknolojisinin özellikle iş liderleri olmak üzere yüksek değerli kişileri hedef alan kimlik avı kampanyaları oluşturduğunu gösteriyor. 2024 yılında dünya genelinde 140.000-150.000 vaka yaşandı ve bunların %75'i CEO'ları ve üst düzey yöneticileri hedef aldı... Deepfake'ler, 2027 yılına kadar küresel ekonomik kayıpları %32 oranında, yani yılda yaklaşık 40 milyar dolar artırabilir.

Son zamanlarda, yapay zeka şirketi Anthropic, yabancı bilgisayar korsanları tarafından gerçekleştirilen ve ilk kez otomatik saldırı faaliyetlerini koordine etmek için yapay zekanın kullanıldığı bir siber saldırı kampanyasını tespit edip engelledi. Özellikle, bilgisayar korsanları, sızma operasyonlarını planlamak, yönlendirmek ve uygulamak için yapay zeka sistemlerini kullandılar; bu, siber saldırı kampanyalarının ölçeğini ve hızını artırma riski taşıyan "endişe verici" bir gelişme…

Ulusal Siber Güvenlik Birliği'nin Dolandırıcılıkla Mücadele Birimi Direktörü Bay Ngo Minh Hieu, yapay zekâ entegre araçlarının, gerçek kişilerin kullanılmasına kıyasla dolandırıcılık hızını yaklaşık 20 kat artırdığını belirtti. Dolandırıcılar, analiz için yapay zekâya bir dolandırıcılık senaryosu sunuyor ve sistem anında otomatik olarak mağdurlarla sohbet etmeye başlıyor. Yapay zekâ, ilk verilerden yola çıkarak mağdurun ne istediğini anlayabiliyor ve onlarla gerçek zamanlı olarak iletişim kurabiliyor. En gelişmiş taktik ise "Ortadaki Adam" saldırısıdır; burada bir kullanıcı video kimlik doğrulaması yaptığında (örneğin yüzünü kaydetme veya komut verme gibi), bilgisayar korsanı iletilen verilere müdahale eder. Siber suçlular daha sonra önceden hazırlanmış deepfake videoları ekleyerek, kullanıcının gerçek veri akışının yerine geçip kimlik doğrulama sürecini atlatırlar. Bu yöntemle, bankaların ve finans kuruluşlarının güvenlik sistemleri de aldatılma riskiyle karşı karşıya kalmaktadır.

Daha iyi veri yönetimi

Yapay zekânın giderek yaygınlaşmasıyla birlikte güvenlik ve gizlilik riskleri de önemli ölçüde artıyor. Uzak sunucularda depolanan ve işlenen veriler, bilgisayar korsanları ve siber suçlular için cazip bir hedef haline gelecek. Ulusal Siber Güvenlik Birliği'nin verilerine göre, yalnızca 2025'in ikinci çeyreğinde yapay zekâ destekli siber saldırıların sayısı %62 artarak küresel çapta 18 milyar dolara varan kayıplara neden oldu...

Uzmanlar veri korumasının hayati önem taşıdığına inanıyor. Ancak, veri toplama ve satışı birçok "kara borsa" platformunda ayda 20 dolardan başlayan fiyatlarla açıkça devam ediyor. Siber suçlular, dil modellerini taklit eden ancak suç amaçlı özelleştirilmiş araçlar kullanabiliyor. Bu araçlar kötü amaçlı yazılım üretebiliyor ve hatta antivirüs yazılımlarını bile atlatabiliyor.

Vietnam'da, 17 Nisan 2023 tarihinden itibaren yürürlüğe giren 13/2023/ND-CP sayılı Kararname, kişisel verilerin korunmasını düzenlemektedir. Ayrıca, 1 Ocak 2026'da yürürlüğe girmesi beklenen Kişisel Verilerin Korunması Kanunu, kişisel verilerin sızması ve kötüye kullanılması riskini ele almak için daha güçlü bir yasal mekanizma sağlayacaktır. Bununla birlikte, Ulusal Siber Güvenlik Birliği'ne göre, yaptırımın etkinliğinin üç temel alanda güçlendirilmesi gerekmektedir: kamuoyu farkındalığının artırılması, kurumsal sorumluluğun artırılması ve düzenleyici kurumların işlem kapasitesinin iyileştirilmesi. Teknik önlemlerin ötesinde, her bireyin olağandışı ve şüpheli işaretleri tespit etme ve tehlikeli dijital etkileşimlerden proaktif olarak korunma yeteneğini geliştirmesi gerekmektedir…

Kaspersky, Karanlık Yapay Zeka'nın (standart güvenlik kontrollerinin dışında çalışan ve genellikle kimlik avı, manipülasyon, siber saldırılar veya veri kötüye kullanımı gibi eylemleri mümkün kılan büyük dil modellerinin (LLM) kullanımını ifade eden bir terim) istismarına karşı uyarıda bulundu. Asya-Pasifik bölgesinde Karanlık Yapay Zeka'nın yükselişi nedeniyle, kuruluşlar ve bireyler giderek daha karmaşık ve tespit edilmesi zor siber saldırılarla karşı karşıya kalmaya hazırlanmalıdır.

Kaspersky'nin Orta Doğu, Türkiye, Afrika ve Asya-Pasifik bölgelerinden sorumlu Küresel Araştırma ve Analiz Ekibi (GReAT) Başkanı Sergey Lozhkin, günümüzdeki yapay zeka suistimalinin bir tezahürünün de Kara Şapkalı GPT modellerinin ortaya çıkması olduğunu belirtti. Bunlar, kötü amaçlı yazılım oluşturma, büyük ölçekli saldırılar için akıcı ve ikna edici kimlik avı e-postaları hazırlama, deepfake ses ve videolar oluşturma ve hatta simüle edilmiş saldırıları destekleme gibi etik dışı ve yasadışı amaçlara hizmet etmek üzere özel olarak geliştirilmiş veya değiştirilmiş yapay zeka modelleridir.

Kaspersky uzmanları, bireylerin ve işletmelerin yapay zeka tarafından üretilen kötü amaçlı yazılımları tespit etmek için yeni nesil güvenlik çözümlerini kullanmalarını ve aynı zamanda veri korumasına öncelik vermelerini önermektedir. İşletmeler, yapay zeka destekli güvenlik açığı istismarını izlemek için gerçek zamanlı izleme araçları uygulamalı; karanlık bölgedeki yapay zekayı ve veri sızıntısı riskini sınırlamak için erişim kontrolünü ve çalışan eğitimini güçlendirmeli; ve tehditleri izlemek ve olaylara hızlı bir şekilde müdahale etmek için bir siber güvenlik operasyon merkezi kurmalıdır.

Kaynak: https://www.sggp.org.vn/bao-mat-du-lieu-thoi-ai-post824210.html


Yorum (0)

Duygularınızı paylaşmak için lütfen bir yorum bırakın!

Aynı konuda

Aynı kategoride

Aynı yazardan

Miras

Figür

İşletmeler

Güncel Olaylar

Siyasi Sistem

Yerel

Ürün

Happy Vietnam
Hoi An geceleyin

Hoi An geceleyin

Mutlu bir hikaye

Mutlu bir hikaye

Barış Güvercini

Barış Güvercini