Dalam beberapa bulan terakhir, para ahli dan peneliti keselamatan anak telah memperingatkan risiko bahwa AI buatan dapat memperburuk pelecehan daring.
CEO Meta, Mark Zuckerberg, berbicara di sidang Komite Kehakiman Senat AS pada 31 Januari 2024, di hadapan kerumunan peserta yang membawa gambar hasil rekayasa AI. Foto: Reuters
NCMEC belum merilis jumlah total laporan materi pelecehan anak dari semua sumber yang diterimanya pada tahun 2023. Namun pada tahun 2022, NCMEC menerima laporan sekitar 88,3 juta berkas terkait masalah tersebut.
“Kami menerima laporan dari perusahaan-perusahaan AI inovatif itu sendiri, platform daring, dan masyarakat umum,” kata John Shehan, wakil presiden NCMEC.
Para CEO Meta, X, TikTok, Snap, dan Discord memberikan kesaksian di sidang Senat AS tentang keselamatan anak di platform daring pada hari Rabu (31 Januari). Anggota parlemen AS mempertanyakan perusahaan media sosial tentang upaya mereka melindungi anak-anak dari "predator daring".
AI generatif dapat digunakan oleh pelaku kejahatan untuk berulang kali menyakiti anak-anak di dunia nyata dengan membuat gambar palsu tentang mereka, kata para peneliti di Stanford Internet Observatory dalam sebuah laporan Juni lalu.
Fallon McNulty, direktur CyberTipline di NCMEC, yang menerima laporan eksploitasi anak daring, mengatakan konten yang dihasilkan AI menjadi "semakin fotorealistis," sehingga sulit untuk menentukan apakah korban adalah orang sungguhan.
OpenAI, perusahaan yang menciptakan ChatGPT, telah menyiapkan proses untuk mengirimkan laporan ke NCMEC, dan organisasi tersebut sedang berdiskusi dengan perusahaan AI lainnya, kata McNulty.
Hoang Hai (menurut Reuters, FT)
[iklan_2]
Sumber
Komentar (0)