Chủ nhiệm Ủy ban Khoa học, Công nghệ và Môi trường của Quốc hội (KHCN-MT) Nguyễn Thanh Hải trình bày báo cáo thẩm tra dự án luật cho biết, Ủy ban nhất trí với sự cần thiết ban hành Luật Trí tuệ nhân tạo trong bối cảnh AI đã có bước phát triển vượt bậc. Cùng với sự phát triển nhanh chóng, ứng dụng ngày càng rộng rãi và hiệu quả tác động tích cực, AI cũng đặt ra nhiều thách thức về kinh tế, xã hội, an ninh, an toàn; tiềm ẩn rủi ro khó dự đoán.
Ủy ban KHCN-MT đề nghị cơ quan chủ trì soạn thảo tiếp tục rà soát, đánh giá kỹ hơn mức độ thể chế hóa các chủ trương, định hướng của Đảng, đặc biệt là về phát triển AI vì con người, vì phát triển bền vững; phát triển mạnh mẽ ứng dụng AI dựa trên dữ liệu lớn đối với các ngành, lĩnh vực quan trọng; thu hút, trọng dụng, giữ chân các nhà khoa học đầu ngành, chuyên gia, "tổng công trình sư" trong và ngoài nước về phát triển công nghệ AI…
Về chính sách của Nhà nước về trí tuệ nhân tạo, Ủy ban KHCN-MT đề nghị bổ sung một số nội dung chính sách, cụ thể như đẩy mạnh thử nghiệm có kiểm soát đối với các công nghệ AI tiên tiến nhưng rủi ro tiềm ẩn; nội dung: Nhà nước đảm bảo quyền tiếp cận dữ liệu lớn có chất lượng cao để phục vụ huấn luyện mô hình AI; Nhà nước có cơ chế thu hút và đãi ngộ chuyên gia, định hướng đào tạo nhân lực gắn với nhu cầu doanh nghiệp; Nhà nước có chính sách đào tạo chuyên sâu và phổ cập kiến thức, kỹ năng số cơ bản, đạo đức AI cho cán bộ công chức, người dân, nhất là trẻ em để sử dụng AI an toàn.
Về cơ chế thử nghiệm có kiểm soát đối với AI, Ủy ban nhận thấy, thử nghiệm là bước tất yếu trong phát triển sản phẩm, đặc biệt với các hệ thống AI có tính mới và rủi ro cao. Việc cho phép thử nghiệm có kiểm soát là cần thiết để thúc đẩy đổi mới sáng tạo. Do đó, cần nghiên cứu bổ sung cơ chế miễn trừ trách nhiệm đối với rủi ro phát sinh trong quá trình thử nghiệm khi tổ chức, cá nhân đã tuân thủ đúng quy định.
Tuy nhiên, cơ chế thử nghiệm có kiểm soát đã được điều chỉnh tại Luật Khoa học, công nghệ và đổi mới sáng tạo, dự thảo Luật Chuyển đổi số và các văn bản hướng dẫn về sandbox. Vì vậy, để tránh trùng lặp, đề nghị luật này chỉ quy định những nội dung mang tính đặc thù của thử nghiệm đối với hệ thống AI; đồng thời tập trung vào cơ chế hậu kiểm, đánh giá kết quả thử nghiệm và bảo đảm đơn giản hóa thủ tục hành chính.
Đối với đối tượng dễ bị tổn thương như trẻ em, Ủy ban cho rằng, AI cũng tiềm ẩn những mặt trái đáng lo ngại như khi quá phụ thuộc vào AI để tìm câu trả lời hoặc giải quyết bài tập, trẻ em mất đi cơ hội rèn luyện khả năng suy nghĩ độc lập, phân tích, và sáng tạo; dễ có hành vi lệch chuẩn; có thể lầm tưởng AI là một người bạn thật sự và hành động theo những lời khuyên từ AI mà những lời khuyên này có thể không phù hợp hoặc nguy hiểm; bị thao túng hoặc lừa đảo.
Cơ quan thẩm tra dẫn kinh nghiệm các nước cho thấy, đạo luật về AI của Italia quy định người dưới 14 tuổi chỉ được dùng AI khi có sự đồng ý của cha, mẹ hoặc người giám hộ; theo đề xuất mới đây, người dùng tại EU phải trên 16 tuổi mới có thể sử dụng AI mà không cần sự đồng ý của cha mẹ; Luật kiểm soát Chatbot AI của Bang California (Hoa Kỳ) quy định, các nền tảng AI bắt buộc phải thông báo rõ cho người dùng dưới 18 tuổi định kỳ 3 giờ/lần về việc họ đang trò chuyện với Chatbot chứ không phải con người.
Vì vậy, Ủy ban đề nghị cơ quan chủ trì soạn thảo nghiên cứu bổ sung những quy định riêng nhằm bảo vệ trẻ em trước các mặt trái của AI, hướng trẻ em sử dụng AI một cách an toàn và lành mạnh, trong đó phát huy vai trò, trách nhiệm của phụ huynh, nhà trường trong việc giám sát, nâng cao nhận thức cho trẻ em về AI.
Nguồn: https://www.sggp.org.vn/can-co-quy-dinh-rieng-nham-bao-ve-tre-em-truoc-mat-trai-cua-ai-post824617.html






Bình luận (0)