Pelabelan produk yang dihasilkan AI

Menekankan mekanisme pengendalian risiko AI dalam kehidupan saat ini, Wakil Nguyen Tam Hung (HCMC) berpendapat bahwa rancangan undang-undang yang mewajibkan penyedia untuk memastikan penandaan yang dapat dibaca mesin untuk konten AI sangat diperlukan. Namun, beliau menyarankan untuk mempertimbangkan penambahan persyaratan wajib untuk menampilkan informasi identifikasi langsung pada antarmuka interaktif ketika konten berisiko menimbulkan kebingungan, guna melindungi pengguna umum, terutama anak-anak dan lansia, dari risiko misinformasi dan deepfake. Peraturan ini meningkatkan tanggung jawab sosial penyedia teknologi dan membangun kepercayaan digital bagi masyarakat.
Sejalan dengan itu, Wakil Nguyen Tam Hung mengatakan bahwa melalui penelitian, ia menemukan bahwa model AI multiguna saat ini tidak hanya menghasilkan teks atau gambar, tetapi juga dapat menghasilkan kode sumber, alat serangan, instruksi eksekusi, proses serangan siber, metode penipuan keuangan, dan sebagainya. Dari sana, Wakil mengusulkan penambahan kewajiban untuk mengendalikan "kemampuan menghasilkan sendiri" model ketika mengizinkan pembuatan kode sumber, dan memiliki mekanisme untuk memperingatkan, memblokir, dan membatasi keluaran diperlukan untuk memastikan keamanan jaringan dan ketertiban serta keselamatan sosial.

Melihat pula risiko yang ditimbulkan oleh AI, Wakil Pham Van Hoa ( Dong Thap ) mengatakan bahwa meskipun teknologi AI merupakan alat untuk mendukung manusia, ia membawa banyak risiko tinggi; Wakil tersebut meminta komite perancang untuk melakukan penilaian yang objektif dan akurat mengenai masalah ini.
"Risiko-risiko tersebut dapat memengaruhi kehidupan manusia, properti, hak, dan kepentingan sah organisasi dan individu," ujar Deputi Pham Van Hoa, seraya menambahkan bahwa perlu ada label untuk produk-produk yang diciptakan oleh AI. Menurutnya, pemberian label AI bertujuan untuk memberi tahu masyarakat produk mana yang diciptakan oleh AI dan mana yang tidak.

Sementara itu, Wakil Trinh Thi Tu Anh ( Lam Dong ) mengatakan bahwa Pasal 11 rancangan undang-undang tersebut tidak sepenuhnya mencerminkan pemikiran penilaian risiko berdasarkan dampak teknologi. Menurutnya, dalam konteks saat ini, AI dapat menciptakan metode berbahaya yang belum pernah teridentifikasi. Oleh karena itu, Wakil Trinh Thi Tu Anh mengusulkan penambahan ketentuan: "Pemerintah harus menetapkan secara rinci dan secara berkala memperbarui serta melengkapi daftar sistem kecerdasan buatan dengan risiko yang tidak dapat diterima berdasarkan penilaian risiko, tren teknologi, dan persyaratan manajemen praktis." Menurutnya, mekanisme ini memastikan bahwa undang-undang tersebut tidak menjadi usang dan dapat merespons risiko baru dengan cepat.
Menghindari penyalahgunaan AI
Wakil Tran Khanh Thu (Hung Yen) mengangkat isu AI dalam mendukung pemeriksaan dan perawatan medis, dengan mengatakan bahwa AI tidak hanya membantu mengoptimalkan proses di industri medis, mengurangi beban kerja dokter dan tenaga medis, tetapi juga memainkan peran penting dalam personalisasi perawatan, sehingga meningkatkan hasil perawatan kesehatan dan efisiensi penggunaan sumber daya. Namun, penerapan AI untuk mendeteksi tanda-tanda kesehatan terkadang kontraproduktif.

Delegasi perempuan tersebut mengutip contoh nyata seorang pasien berusia 55 tahun di Kota Ho Chi Minh yang berada dalam kondisi lesu ketika dibawa ke rumah sakit. Sebelumnya, keluarga pasien menggunakan AI untuk mendiagnosis, lalu pergi membeli obat untuk pasien. Setelah menggunakan obat tersebut, kondisi pasien memburuk, lalu ketika dibawa ke rumah sakit, ia didiagnosis mengalami kerusakan otak, stroke, dan gejala sisa yang tak terelakkan.
"Tentu saja, orang tidak boleh menggunakan hasil pencarian untuk mendiagnosis atau meresepkan obat. Namun, apakah orang yang menjual obat berdasarkan resep AI melanggar hukum?", tanya Wakil Tran Khanh Thu dan berharap agar dalam rancangan Undang-Undang Kecerdasan Buatan ini, akan ada ketentuan kerangka hukum yang lebih spesifik untuk mengelola produk kecerdasan buatan di sektor kesehatan, terutama terkait tanggung jawab pihak-pihak terkait.
Terkait peralihan dari pasca-audit ke pra-audit dalam rancangan undang-undang, Wakil Tran Khanh Thu mengusulkan agar ada ambang batas kuantitatif yang jelas, misalnya ketika model mengubah algoritmanya, meningkatkan ukuran pengguna, atau data pelatihan melampaui ambang batas tertentu.

Menilik lebih jauh "penyalahgunaan AI", Wakil Pham Trong Nghia (Lang Son) mengatakan bahwa jika kita terlalu bergantung pada AI dalam hidup, hal itu akan mengurangi kemampuan berpikir dan kreativitas kita. Penyalahgunaan AI memiliki banyak potensi ketidakstabilan, seperti: melanggar kedaulatan nasional, mengurangi efektivitas administrasi publik, dan berdampak negatif pada setiap individu dan keluarga, terutama generasi muda.
"Bagi sektor publik, penyalahgunaan AI mengurangi kelayakan, kemanusiaan, dan efektivitas kebijakan serta undang-undang. Penyediaan informasi dan data sensitif untuk AI, jika tidak dikontrol secara ketat, dapat menyebabkan kebocoran data, yang membahayakan keamanan nasional, ketertiban sosial, dan keselamatan dengan konsekuensi yang tidak terduga," ujar Wakil Pham Trong Nghia, yang mengusulkan penambahan ketentuan dalam rancangan undang-undang yang menetapkan tindakan terlarang, termasuk pelarangan penyalahgunaan AI di sektor publik.
Sumber: https://www.sggp.org.vn/can-co-che-danh-gia-rui-ro-lien-quan-toi-ai-post825783.html






Komentar (0)