Dalam beberapa bulan kebelakangan ini, pakar dan penyelidik keselamatan kanak-kanak telah memberi amaran tentang risiko AI buatan boleh memburukkan lagi penyalahgunaan dalam talian.
Ketua Pegawai Eksekutif Meta Mark Zuckerberg bercakap pada pendengaran Jawatankuasa Kehakiman Senat AS pada 31 Januari 2024, di hadapan orang ramai yang membawa imej yang dijana AI. Foto: Reuters
NCMEC masih belum mengeluarkan jumlah laporan bahan penderaan kanak-kanak daripada semua sumber yang diterima pada 2023. Tetapi pada 2022, ia menerima laporan kira-kira 88.3 juta fail mengenai masalah itu.
"Kami mendapat laporan daripada syarikat AI yang inovatif sendiri, platform (dalam talian) dan orang ramai," kata John Shehan, naib presiden NCMEC.
Ketua Pegawai Eksekutif Meta, X, TikTok, Snap dan Discord memberi keterangan pada pendengaran Senat AS mengenai keselamatan kanak-kanak di platform dalam talian pada hari Rabu (31 Januari). Penggubal undang-undang AS mempersoalkan syarikat media sosial tentang usaha mereka untuk melindungi kanak-kanak daripada "pemangsa dalam talian".
AI Generatif boleh digunakan oleh pelakon jahat untuk berulang kali membahayakan kanak-kanak kehidupan sebenar dengan mencipta imej palsu mereka, kata penyelidik di Balai Cerap Internet Stanford dalam satu laporan Jun lalu.
Fallon McNulty, pengarah CyberTipline NCMEC, yang mengambil laporan tentang eksploitasi kanak-kanak dalam talian, berkata kandungan yang dijana AI menjadi "lebih dan lebih fotorealistik," menjadikannya sukar untuk menentukan sama ada mangsa adalah orang sebenar.
OpenAI, syarikat yang mencipta ChatGPT, telah menyediakan proses untuk menyerahkan laporan kepada NCMEC, dan organisasi itu sedang berbincang dengan syarikat AI lain, kata McNulty.
Hoang Hai (menurut Reuters, FT)
Sumber
Komen (0)