ในช่วงไม่กี่เดือนที่ผ่านมา ผู้เชี่ยวชาญด้านความปลอดภัยของเด็กและนักวิจัยได้ออกมาเตือนถึงความเสี่ยงที่ AI เทียมอาจทำให้เกิดการละเมิดทางออนไลน์รุนแรงขึ้น
มาร์ก ซักเคอร์เบิร์ก ซีอีโอของบริษัท Meta กล่าวสุนทรพจน์ในการพิจารณาคดีของคณะกรรมการตุลาการของวุฒิสภาสหรัฐฯ เมื่อวันที่ 31 มกราคม 2024 ต่อหน้าผู้เข้าร่วมงานจำนวนมากที่ถือภาพถ่ายที่สร้างโดย AI ภาพ: Reuters
NCMEC ยังไม่ได้เปิดเผยจำนวนรายงานเนื้อหาการล่วงละเมิดเด็กทั้งหมดจากทุกแหล่งที่ได้รับในปี 2023 แต่ในปี 2022 NCMEC ได้รับรายงานเกี่ยวกับปัญหาดังกล่าวประมาณ 88.3 ล้านไฟล์
“เรากำลังได้รับรายงานจากบริษัท AI เชิงนวัตกรรมเอง แพลตฟอร์ม (ออนไลน์) และประชาชนทั่วไป” จอห์น เชฮาน รองประธาน NCMEC กล่าว
ซีอีโอของ Meta, X, TikTok, Snap และ Discord ให้การเป็นพยานในการพิจารณาคดีความปลอดภัยของเด็กบนแพลตฟอร์มออนไลน์ของวุฒิสภาสหรัฐฯ เมื่อวันพุธ (31 มกราคม) สมาชิกรัฐสภาสหรัฐฯ ตั้งคำถามกับบริษัทโซเชียลมีเดียเกี่ยวกับความพยายามในการปกป้องเด็กจาก "ผู้ล่าทางออนไลน์"
นักวิจัยจาก Stanford Internet Observatory กล่าวในรายงานเมื่อเดือนมิถุนายนปีที่แล้วว่า ผู้ไม่หวังดีอาจนำ AI เชิงสร้างสรรค์มาใช้เพื่อทำร้ายเด็กๆ ในชีวิตจริงซ้ำแล้วซ้ำเล่าด้วยการสร้างภาพปลอมๆ ของพวกเขาขึ้นมา
ฟอลลอน แมคนัลตี้ ผู้อำนวยการ CyberTipline ของ NCMEC ซึ่งรับรายงานการแสวงประโยชน์จากเด็กทางออนไลน์ กล่าวว่า เนื้อหาที่สร้างโดย AI กำลังมีความ “สมจริงมากขึ้นเรื่อยๆ” ทำให้ยากต่อการระบุว่าเหยื่อเป็นคนจริงหรือไม่
OpenAI บริษัทที่สร้าง ChatGPT ได้กำหนดกระบวนการสำหรับการส่งรายงานไปยัง NCMEC และองค์กรกำลังอยู่ระหว่างการเจรจากับบริษัท AI แห่งอื่นๆ McNulty กล่าว
ฮวงไห่ (ตามรายงานของรอยเตอร์และเอฟที)
แหล่งที่มา
การแสดงความคิดเห็น (0)