Son aylarda çocuk güvenliği uzmanları ve araştırmacılar, yapay zekanın çevrimiçi istismarı daha da kötüleştirebileceği riskine karşı uyarıda bulundu.
Meta CEO'su Mark Zuckerberg, 31 Ocak 2024'te ABD Senatosu Yargı Komitesi'nin bir duruşmasında, yapay zeka tarafından oluşturulmuş görseller taşıyan bir kalabalığın önünde konuşuyor. Fotoğraf: Reuters
NCMEC, 2023 yılında aldığı tüm kaynaklardan gelen çocuk istismarı materyali bildirimlerinin toplam sayısını henüz açıklamadı. Ancak 2022 yılında sorunla ilgili yaklaşık 88,3 milyon dosya bildirimi aldı.
NCMEC Başkan Yardımcısı John Shehan, "Kendilerinden, (çevrimiçi) platformlardan ve halktan yenilikçi yapay zeka şirketlerinden raporlar alıyoruz" dedi.
Meta, X, TikTok, Snap ve Discord'un CEO'ları, Çarşamba günü (31 Ocak) ABD Senatosu'nda çevrimiçi platformlarda çocuk güvenliğiyle ilgili bir duruşmada ifade verdi. ABD milletvekilleri, sosyal medya şirketlerine çocukları "çevrimiçi avcılardan" koruma çabaları hakkında soru sordu.
Stanford İnternet Gözlemevi'ndeki araştırmacılar, geçen Haziran ayında yayınladıkları raporda, kötü niyetli kişilerin yapay zekayı, çocukların sahte görüntülerini oluşturarak gerçek hayattaki çocuklara tekrar tekrar zarar vermek için kullanabileceğini söyledi.
Çevrimiçi çocuk istismarı ihbarlarını alan NCMEC'in CyberTipline Direktörü Fallon McNulty, yapay zeka tarafından üretilen içeriklerin "gittikçe daha fotogerçekçi" hale geldiğini ve bu durumun kurbanların gerçek insanlar olup olmadığını belirlemeyi zorlaştırdığını söyledi.
ChatGPT'yi oluşturan şirket olan OpenAI'nin, NCMEC'e rapor sunmak için bir süreç oluşturduğunu ve kuruluşun diğer yapay zeka şirketleriyle görüşmelerde bulunduğunu belirten McNulty, şunları kaydetti:
Hoang Hai (Reuters, FT'ye göre)
[reklam_2]
Kaynak
Yorum (0)