Mengelaskan sistem kecerdasan buatan kepada empat tahap risiko
Pada pagi 21 November, Majlis Kebangsaan mendengar pembentangan dan laporan mengenai pemeriksaan draf Undang-undang Kepintaran Buatan.
Semasa membentangkan laporan itu, Menteri Sains dan Teknologi Nguyen Manh Hung berkata draf undang-undang itu dibina untuk mewujudkan koridor undang-undang terobosan untuk kecerdasan buatan, mewujudkan persekitaran undang-undang yang menggalakkan untuk menggalakkan inovasi, meningkatkan daya saing negara, dan pada masa yang sama mengurus risiko, melindungi kepentingan negara, hak asasi manusia dan kedaulatan digital.

Menteri Sains dan Teknologi Nguyen Manh Hung membentangkan laporan itu.
Untuk mengawal selia sistem kecerdasan buatan, draf undang-undang telah menerima pakai pendekatan pengurusan berasaskan risiko, mengklasifikasikan kecerdasan buatan kepada empat tahap dan mengenakan kewajipan yang sepadan.
Sistem kecerdasan buatan dikelaskan kepada empat tahap risiko: Risiko tidak boleh diterima: sistem berpotensi menyebabkan kemudaratan yang serius dan tidak boleh diperbaiki.
Risiko tinggi ialah sistem yang boleh menyebabkan kerosakan kepada nyawa, kesihatan, hak, dan kepentingan yang sah; Risiko sederhana ialah sistem yang mempunyai risiko mengelirukan, memanipulasi, atau memperdaya pengguna. Risiko rendah adalah kes yang selebihnya.
Pembekal mesti mengklasifikasikan sendiri sistem sebelum edaran dan bertanggungjawab untuk keputusan pengelasan.
Bagi sistem berisiko sederhana dan tinggi, pembekal mesti memaklumkan Kementerian Sains dan Teknologi melalui Portal Sehenti. Pihak berkuasa berwibawa mempunyai hak untuk menyemak dan menilai semula klasifikasi.
Undang-undang menetapkan tanggungjawab untuk ketelusan, pelabelan dan akauntabiliti. Khususnya, pihak pelaksana mesti memberitahu dengan jelas dan melabelkan kandungan yang dicipta atau diedit dengan unsur palsu, mensimulasikan orang sebenar (deepfake) yang boleh menyebabkan salah faham, atau kandungan yang dicipta oleh Kepintaran Buatan untuk tujuan komunikasi dan pengiklanan.
Pembekal dan pelaksana mesti menjelaskan hasil pengendalian sistem berisiko tinggi apabila diminta oleh pihak yang terjejas.
Sekiranya berlaku insiden, pihak-pihak bertanggungjawab untuk membetulkan, menggantung atau menarik balik sistem dengan segera dan melaporkannya melalui Portal Sehenti. Untuk tujuan pengurusan risiko, dengan risiko yang tidak boleh diterima, sistem ini dilarang dibangunkan, dibekalkan, digunakan atau digunakan dalam sebarang bentuk.
Senarai yang dilarang termasuk sistem yang digunakan untuk perbuatan yang dilarang oleh undang-undang, menggunakan unsur palsu untuk menipu, memanipulasi dan menyebabkan kemudaratan yang serius, mengeksploitasi kelemahan kumpulan yang terdedah (kanak-kanak, warga tua, dll.), atau mencipta kandungan palsu yang membahayakan keselamatan negara secara serius.
Untuk sistem berisiko tinggi, sistem berisiko tinggi mesti dinilai kesesuaian sebelum diedarkan atau digunakan.
Penilaian boleh dalam bentuk pensijilan kepatuhan (dilakukan oleh badan bertauliah) atau pengawasan kepatuhan (penilaian kendiri oleh pembekal).
Perdana Menteri menetapkan Senarai sistem kecerdasan buatan berisiko tinggi yang sepadan dengan setiap bentuk penilaian.
Kewajipan terperinci ditetapkan untuk pembekal (mewujudkan langkah pengurusan risiko, mengurus data latihan, menyediakan dokumentasi teknikal, memastikan pengawasan manusia) dan pelaksana (beroperasi untuk tujuan yang dimaksudkan, memastikan keselamatan, memenuhi obligasi ketelusan).
Pembekal asing dengan sistem berisiko tinggi mesti mempunyai wakil yang diberi kuasa di Vietnam, dan mesti menubuhkan entiti undang-undang di Vietnam jika sistem itu tertakluk kepada pensijilan pematuhan mandatori.
Untuk model sederhana, berisiko rendah dan pelbagai guna, sistem risiko sederhana mesti memastikan ketelusan dan pelabelan.
Draf itu juga menetapkan tanggungjawab pembangun dan pengguna model kecerdasan buatan tujuan umum untuk memastikan pematuhan undang-undang Vietnam. Kewajipan yang dipertingkatkan dikenakan kepada model GPAI dengan risiko sistemik (berpotensi untuk kesan yang meluas), termasuk penilaian impak, penyimpanan rekod teknikal dan pemberitahuan kepada Kementerian Sains dan Teknologi.
Walau bagaimanapun, model AI tujuan am sumber terbuka dikecualikan daripada kewajipan yang dipertingkatkan ini; apabila model sumber terbuka digunakan untuk membangunkan sistem AI, organisasi yang menggunakan mesti menjalankan pengurusan risiko sistem tersebut.
Pertimbangkan untuk menggunakan pelabelan yang tidak kelihatan untuk mengurangkan kos
Dari perspektif peperiksaan, Pengerusi Jawatankuasa Sains, Teknologi dan Alam Sekitar Nguyen Thanh Hai berkata bahawa Jawatankuasa mendapati bahawa pelabelan produk AI adalah tanggungjawab etika dan undang-undang yang mengikat untuk membina kepercayaan dalam era AI.

Pengerusi Jawatankuasa Sains, Teknologi dan Alam Sekitar Nguyen Thanh Hai.
Pada asasnya bersetuju dengan peruntukan pelabelan dalam draf Undang-undang, bagaimanapun, Jawatankuasa mengesyorkan merujuk kepada pengalaman antarabangsa mengenai produk yang dijana AI untuk memastikan kesesuaian dengan keadaan praktikal Vietnam.
Untuk produk dan peranti perkakasan dengan aplikasi AI (seperti peti sejuk, TV, mesin basuh, dll.), adalah disyorkan untuk menyelidik dan mempertimbangkan untuk menggunakan tera air yang tidak kelihatan untuk mengurangkan kos dan prosedur sambil memastikan pengurusan dan kebolehkesanan.
Pada masa yang sama, adalah dicadangkan untuk menetapkan dalam draf Undang-undang prinsip untuk Kerajaan menyediakan arahan terperinci mengenai borang, piawaian teknikal dan pengecualian.
Terdapat cadangan untuk menukar peraturan pelabelan daripada mandatori kepada disyorkan, dengan panduan teknikal minimum.
Pada masa yang sama, adalah perlu untuk merintis mekanisme pelabelan sukarela dalam beberapa bidang; pada masa yang sama, mengukuhkan komunikasi untuk mengelakkan salah faham bahawa "tiada label bermakna bukan produk AI".
Berkenaan klasifikasi risiko, Jawatankuasa berpendapat bahawa klasifikasi empat peringkat manakala Undang-undang Kualiti Produk dan Barangan mengklasifikasikan produk dan barangan kepada tiga jenis adalah tidak konsisten jika AI dianggap sebagai produk dan barangan.
Peraturan mengenai pensijilan pematuhan untuk sistem kecerdasan buatan berisiko tinggi tidak konsisten dengan prinsip pengurusan produk dan barangan berisiko tinggi seperti yang ditetapkan dalam Undang-undang Mengenai Kualiti Produk dan Barangan.
Oleh itu, adalah disyorkan untuk terus mengkaji dan membandingkan dengan teliti peruntukan draf Undang-undang dengan undang-undang semasa.
Sumber: https://mst.gov.vn/de-xuat-dung-ai-de-truyen-thong-quang-cao-phai-dan-nhan-thong-bao-ro-197251125140252967.htm










Komen (0)