ในช่วงไม่กี่เดือนที่ผ่านมา ผู้เชี่ยวชาญด้านความปลอดภัยของเด็กและนักวิจัยได้ออกมาเตือนถึงความเสี่ยงที่ AI เทียมอาจทำให้เกิดการละเมิดทางออนไลน์มากขึ้น
มาร์ก ซักเคอร์เบิร์ก ซีอีโอของ Meta กล่าวสุนทรพจน์ในการพิจารณาของคณะกรรมการตุลาการวุฒิสภาสหรัฐฯ เมื่อวันที่ 31 มกราคม 2024 ต่อหน้าผู้เข้าร่วมงานจำนวนมากที่ถือภาพถ่ายที่สร้างโดย AI ภาพ: รอยเตอร์
NCMEC ยังไม่ได้เปิดเผยจำนวนรายงานเนื้อหาการล่วงละเมิดเด็กทั้งหมดจากทุกแหล่งที่ได้รับในปี 2566 แต่ในปี 2565 NCMEC ได้รับรายงานไฟล์ประมาณ 88.3 ล้านไฟล์เกี่ยวกับปัญหานี้
“เรากำลังได้รับรายงานจากบริษัท AI เชิงนวัตกรรมต่างๆ แพลตฟอร์ม (ออนไลน์) และประชาชนทั่วไป” จอห์น เชฮาน รองประธาน NCMEC กล่าว
ซีอีโอของ Meta, X, TikTok, Snap และ Discord ให้การเป็นพยานในการพิจารณาของวุฒิสภาสหรัฐฯ เกี่ยวกับความปลอดภัยของเด็กบนแพลตฟอร์มออนไลน์เมื่อวันพุธ (31 มกราคม) สมาชิกรัฐสภาสหรัฐฯ ได้ตั้งคำถามกับบริษัทโซเชียลมีเดียเกี่ยวกับความพยายามในการปกป้องเด็กจาก "ผู้ล่าทางออนไลน์"
นักวิจัยจาก Stanford Internet Observatory กล่าวในรายงานเมื่อเดือนมิถุนายนปีที่แล้วว่า Generative AI อาจถูกนำไปใช้โดยผู้ไม่หวังดีเพื่อทำร้ายเด็กๆ ในชีวิตจริงซ้ำแล้วซ้ำเล่าด้วยการสร้างภาพปลอมของพวกเขา
ฟอลลอน แม็กนัลตี้ ผู้อำนวยการ CyberTipline ของ NCMEC ซึ่งรับรายงานการแสวงหาประโยชน์จากเด็กทางออนไลน์ กล่าวว่า เนื้อหาที่สร้างโดย AI กำลังมีความ "สมจริงมากขึ้นเรื่อยๆ" ทำให้ยากต่อการระบุว่าเหยื่อเป็นคนจริงหรือไม่
OpenAI บริษัทที่สร้าง ChatGPT ได้กำหนดกระบวนการในการส่งรายงานไปยัง NCMEC และองค์กรกำลังเจรจากับบริษัท AI อื่นๆ McNulty กล่าว
ฮวงไห่ (ตามรายงานของรอยเตอร์ส, เอฟที)
แหล่งที่มา
การแสดงความคิดเห็น (0)