Mengklasifikasikan sistem kecerdasan buatan ke dalam empat tingkat risiko
Pada pagi hari tanggal 21 November, Majelis Nasional mendengarkan presentasi dan laporan tentang pemeriksaan rancangan Undang-Undang tentang Kecerdasan Buatan.
Saat menyampaikan laporan, Menteri Sains dan Teknologi Nguyen Manh Hung mengatakan rancangan undang-undang tersebut dibuat untuk menciptakan koridor hukum terobosan bagi kecerdasan buatan, menciptakan lingkungan hukum yang menguntungkan untuk mempromosikan inovasi, meningkatkan daya saing nasional, dan pada saat yang sama mengelola risiko, melindungi kepentingan nasional, hak asasi manusia, dan kedaulatan digital.

Menteri Sains dan Teknologi Nguyen Manh Hung menyampaikan laporan tersebut.
Untuk mengatur sistem kecerdasan buatan, rancangan undang-undang tersebut telah mengadopsi pendekatan manajemen berbasis risiko, mengklasifikasikan kecerdasan buatan ke dalam empat tingkatan dan memberlakukan kewajiban yang sesuai.
Sistem kecerdasan buatan diklasifikasikan menjadi empat tingkat risiko: Risiko yang tidak dapat diterima: sistem memiliki potensi menyebabkan kerusakan serius yang tidak dapat diperbaiki.
Risiko tinggi adalah sistem yang dapat membahayakan jiwa, kesehatan, hak, dan kepentingan yang sah; Risiko sedang adalah sistem yang berisiko membingungkan, memanipulasi, atau menipu pengguna. Risiko rendah adalah kasus-kasus yang tersisa.
Pemasok harus mengklasifikasikan sendiri sistem sebelum sirkulasi dan bertanggung jawab atas hasil klasifikasi.
Untuk sistem berisiko sedang dan tinggi, pemasok wajib melaporkannya kepada Kementerian Sains dan Teknologi melalui Portal Terpadu Satu Atap. Otoritas yang berwenang berhak meninjau dan mengevaluasi ulang klasifikasi tersebut.
Undang-undang ini menetapkan tanggung jawab atas transparansi, pelabelan, dan akuntabilitas. Secara spesifik, pihak pelaksana harus secara jelas memberi tahu dan memberi label pada konten yang dibuat atau diedit dengan elemen palsu, mensimulasikan orang sungguhan (deepfake) yang dapat menyebabkan kesalahpahaman, atau konten yang dibuat oleh Kecerdasan Buatan untuk tujuan komunikasi dan periklanan.
Pemasok dan pelaksana harus menjelaskan hasil penanganan sistem berisiko tinggi bila diminta oleh pihak yang terdampak.
Jika terjadi insiden, para pihak bertanggung jawab untuk segera memperbaiki, menangguhkan, atau menarik sistem dan melaporkannya melalui Portal Terpadu Satu Atap. Demi tujuan manajemen risiko, dengan risiko yang tidak dapat diterima, sistem ini dilarang dikembangkan, dipasok, diterapkan, atau digunakan dalam bentuk apa pun.
Daftar yang dilarang mencakup sistem yang digunakan untuk tindakan yang dilarang oleh hukum, menggunakan elemen palsu untuk menipu, memanipulasi dan menyebabkan kerugian serius, mengeksploitasi kelemahan kelompok rentan (anak-anak, orang tua, dll.), atau membuat konten palsu yang sangat membahayakan keamanan nasional.
Untuk sistem berisiko tinggi, sistem berisiko tinggi harus dinilai kesesuaiannya sebelum diedarkan atau digunakan.
Penilaian dapat berupa sertifikasi kesesuaian (dilakukan oleh badan terakreditasi) atau pengawasan kesesuaian (penilaian mandiri oleh pemasok).
Perdana Menteri menetapkan Daftar sistem kecerdasan buatan berisiko tinggi yang sesuai dengan setiap bentuk penilaian.
Kewajiban terperinci ditetapkan untuk pemasok (menetapkan langkah-langkah manajemen risiko, mengelola data pelatihan, menyiapkan dokumentasi teknis, memastikan pengawasan manusia) dan pelaksana (beroperasi untuk tujuan yang dimaksud, memastikan keselamatan, memenuhi kewajiban transparansi).
Pemasok asing dengan sistem berisiko tinggi harus memiliki perwakilan resmi di Vietnam, dan harus mendirikan badan hukum di Vietnam jika sistem tersebut tunduk pada sertifikasi kesesuaian wajib.
Untuk model risiko sedang, rendah, dan multiguna, sistem risiko sedang harus memastikan transparansi dan pelabelan.
Draf tersebut juga menetapkan tanggung jawab pengembang dan pengguna model kecerdasan buatan untuk tujuan umum untuk memastikan kepatuhan terhadap hukum Vietnam. Kewajiban yang lebih ketat berlaku untuk model GPAI dengan risiko sistemik (potensi dampak yang luas), termasuk penilaian dampak, pencatatan teknis, dan notifikasi kepada Kementerian Sains dan Teknologi.
Namun, model AI tujuan umum sumber terbuka dikecualikan dari kewajiban yang ditingkatkan ini; jika model sumber terbuka digunakan untuk mengembangkan sistem AI, organisasi pengguna harus melakukan manajemen risiko terhadap sistem tersebut.
Pertimbangkan penggunaan label tak terlihat untuk mengurangi biaya
Dari perspektif pemeriksaan, Ketua Komite Sains, Teknologi, dan Lingkungan Nguyen Thanh Hai mengatakan bahwa Komite menemukan bahwa pelabelan produk AI merupakan tanggung jawab etika dan hukum yang mengikat untuk membangun kepercayaan di era AI.

Ketua Komite Sains, Teknologi dan Lingkungan Hidup Nguyen Thanh Hai.
Pada dasarnya setuju dengan ketentuan pelabelan dalam rancangan Undang-Undang, namun, Komite merekomendasikan untuk merujuk pada pengalaman internasional tentang produk yang dihasilkan AI untuk memastikan kesesuaian dengan kondisi praktis Vietnam.
Untuk produk dan perangkat keras dengan aplikasi AI (seperti lemari es, TV, mesin cuci, dll.), disarankan untuk meneliti dan mempertimbangkan penerapan tanda air tak terlihat untuk mengurangi biaya dan prosedur sambil tetap memastikan manajemen dan keterlacakan.
Bersamaan dengan itu, diusulkan agar dalam rancangan Undang-Undang tersebut ditetapkan asas-asas bagi Pemerintah untuk memberikan petunjuk rinci tentang bentuk-bentuk, standar-standar teknis, dan pengecualian-pengecualian.
Ada usulan untuk mengubah regulasi pelabelan dari wajib menjadi direkomendasikan, dengan panduan teknis minimum.
Pada saat yang sama, perlu dilakukan uji coba mekanisme pelabelan sukarela di sejumlah bidang; sekaligus memperkuat komunikasi untuk menghindari kesalahpahaman bahwa "tidak ada label berarti bukan produk AI".
Terkait dengan klasifikasi risiko, Komite berpendapat bahwa klasifikasi empat tingkat sedangkan Undang-Undang tentang Kualitas Produk dan Barang mengklasifikasikan produk dan barang menjadi tiga jenis tidak konsisten jika AI dianggap sebagai produk dan barang.
Peraturan tentang sertifikasi kesesuaian untuk sistem kecerdasan buatan berisiko tinggi tidak konsisten dengan prinsip-prinsip manajemen produk dan barang berisiko tinggi sebagaimana ditentukan dalam Undang-Undang tentang Kualitas Produk dan Barang.
Oleh karena itu, disarankan untuk terus mengkaji dan membandingkan secara cermat ketentuan rancangan Undang-Undang tersebut dengan peraturan perundang-undangan yang berlaku.
Sumber: https://mst.gov.vn/de-xuat-dung-ai-de-truyen-thong-quang-cao-phai-dan-nhan-thong-bao-ro-197251125140252967.htm










Komentar (0)