Vietnam.vn - Nền tảng quảng bá Việt Nam

Trí tuệ nhân tạo phải hoạt động trong giới hạn pháp luật và khung đạo đức

Sáng nay, 21/11, thảo luận tại Tổ 6 (gồm Đoàn ĐBQH các tỉnh Lạng Sơn, Đồng Nai, TP. Huế) về dự án Luật Trí tuệ nhân tạo, các ĐBQH cho rằng, để hoàn thiện dự án Luật với mục tiêu quản lý, thúc đẩy nghiên cứu, phát triển trí tuệ nhân tạo ở Việt Nam cần làm rõ những vấn đề then chốt như: dữ liệu đầu vào, sở hữu trí tuệ, phạm vi áp dụng, phân loại rủi ro, trách nhiệm người sử dụng và đạo đức AI...

Báo Đại biểu Nhân dânBáo Đại biểu Nhân dân21/11/2025



Cần thiết kế cơ chế quản trị AI hiện đại, đồng bộ

Bày tỏ sự tán thành với cách tiếp cận xây dựng Luật này là Luật khung để quản lý, thúc đẩy hoạt động nghiên cứu, phát triển, triển khai và sử dụng trí tuệ nhân tạo tại Việt Nam, các ĐBQH đánh giá cao sự chuẩn bị của Chính phủ; hồ sơ dự án Luật được xây dựng công phu, bảo đảm theo quy định; đồng thời việc đề xuất bãi bỏ một số điều, khoản liên quan trong Luật Công nghiệp công nghệ số là cần thiết nhằm tránh chồng chéo, tạo cơ sở pháp lý thống nhất cho việc quản lý và thúc đẩy phát triển AI. Tuy nhiên, để hoàn thiện dự án Luật này, các đại biểu đề nghị Ban soạn thảo tiếp tục rà soát và có chỉnh sửa, bổ sung, bãi bỏ một số điều, khoản cho hợp lý.

Tổ 6 (Huế, Lạng Sơn, Đồng Nai)

Quang cảnh phiên họp Tổ 6 sáng 21/11. Ảnh: Hồ Long

Cụ thể, về phạm vi điều chỉnh, đối tượng áp dụng, ĐBQH Phạm Trọng Nghĩa (Lạng Sơn) cho rằng cần tiếp tục làm rõ vấn đề này. Vì hiện, quy định liên quan đến “hoạt động nghiên cứu” trong dự thảo có nguy cơ trùng với các nội dung đã được điều chỉnh bởi Luật Khoa học, Công nghệ và Đổi mới sáng tạo. Trong khi đó, dự thảo lại chưa có chính sách cụ thể thúc đẩy nghiên cứu hệ thống trí tuệ nhân tạo, chưa xác định rõ đối tượng thực hiện hoạt động này. Do đó, đại biểu đề nghị làm rõ hoạt động nào thuộc phạm vi điều chỉnh của Luật, hoạt động nào thuộc Luật hiện hành để bảo đảm tính khả thi, nhất quán và tránh chồng lấn.

DBQH Phạm Trọng Nghĩa (Lạng Sơn)

ĐBQH Phạm Trọng Nghĩa (Lạng Sơn) phát biểu ý kiến góp ý về dự án Luật Trí tuệ nhân tạo. Ảnh: Hồ Long

Về giải thích từ ngữ, ĐBQH Phạm Trọng Nghĩa đặc biệt lưu ý khái niệm “tinh chỉnh” trong mô hình trí tuệ nhân tạo đa dụng. Đại biểu cho rằng, đây là thuật ngữ chuyên sâu, chưa phổ biến, vì vậy cần được minh định rõ nội hàm để thuận tiện cho việc áp dụng và thi hành luật sau này. Dự thảo hiện chỉ quy định một câu về Ủy ban Quốc gia về Trí tuệ nhân tạo, chưa thể hiện rõ: vị trí pháp lý; chức năng, nhiệm vụ, quyền hạn; cơ cấu tổ chức, cơ chế hoạt động; mối quan hệ với các bộ, ngành. Theo đó, đại biểu đề nghị làm rõ sự cần thiết thành lập thiết chế này, đồng thời đánh giá sự phù hợp với chủ trương tinh gọn bộ máy theo quy định của Đảng. Trường hợp tiếp tục giữ, cần bổ sung quy định hoặc giao Chính phủ quy định chi tiết những vấn đề trên.

Liên quan đến hành vi bị nghiêm cấm, đại biểu cho rằng, dự thảo Luật chưa quy định các hành vi bị nghiêm cấm, trong khi đây là “lá chắn pháp lý” quan trọng để bảo vệ quyền con người, bảo đảm cạnh tranh lành mạnh và phù hợp với chuẩn mực quốc tế. Trong khi, Luật về Trí tuệ nhân tạo (AI) tiên tiến trên thế giới đều quy định rõ những hành vi bị cấm như lạm dụng dữ liệu cá nhân, phân biệt đối xử có hệ thống, sử dụng AI cho mục đích gây hại… Do đó, đề nghị bổ sung một điều riêng về hành vi bị nghiêm cấm, trên cơ sở các nguyên tắc: minh bạch, an toàn, trách nhiệm giải trình, giám sát của con người, công bằng, không phân biệt đối xử và hỗ trợ đổi mới sáng tạo có kiểm soát.

DBQH Nguyễn Thị Sửu (Huế)

ĐBQH Nguyễn Thị Sửu (TP. Huế) phát biểu ý kiến tại phiên thảo luận Tổ sáng 21/11. Ảnh: Hồ Long

Góp ý vào dự thảo Luật, ĐBQH Nguyễn Thị Sửu (TP. Huế) tập trung phân tích các quy định liên quan đến hạ tầng, nguồn nhân lực và khung đạo đức AI – những trụ cột then chốt quyết định hiệu quả triển khai Luật trong thực tiễn.

Cụ thể, tại Chương III ( Điều 17, 18) quy định về hạ tầng trí tuệ nhân tạo, đại biểu cho rằng chưa xác định rõ lộ trình triển khai hạ tầng AI quốc gia, vai trò của các bộ, ngành, địa phương cũng như doanh nghiệp, viện nghiên cứu trong quá trình xây dựng và vận hành. Đại biểu đề nghị bổ sung kế hoạch triển khai cụ thể với các mốc thời gian, trách nhiệm của từng cơ quan và cơ chế giám sát để bảo đảm tính khả thi khi Luật được ban hành.

Đối với phát triển nguồn nhân lực (Điều 24), đại biểu Nguyễn Thị Sửu cho rằng, dự thảo Luật mới nêu mục tiêu, mà chưa có cơ chế hỗ trợ thực chất cho cơ sở đào tạo và người học như kinh phí, chuẩn đào tạo quốc tế hay các chương trình liên kết với doanh nghiệp, viện nghiên cứu. Vì vậy, cần bổ sung chính sách học bổng, hỗ trợ đào tạo và thúc đẩy hợp tác công – tư.

Về Khung đạo đức trí tuệ nhân tạo quốc gia (Điều 27), đại biểu cho rằng quy định hiện hành mới mang tính nguyên tắc, thiếu cơ chế giám sát, đánh giá và xử lý vi phạm nên khó bảo đảm tính ràng buộc trong thực tiễn; đồng thời, thuật ngữ “đạo đức AI” chưa được định nghĩa rõ và chưa gắn trách nhiệm cụ thể cho tổ chức, cá nhân khi vi phạm. Từ đó, đại biểu đề nghị sửa cụm từ “rà soát” thành “công khai” trong quy định về cập nhật khung đạo đức; đồng thời bổ sung các khoản quy định về việc thành lập Cơ quan đạo đức AI quốc gia có trách nhiệm giám sát, đánh giá và xử lý vi phạm; xác định nghĩa vụ tuân thủ đối với tổ chức, cá nhân phát triển hoặc vận hành hệ thống AI có rủi ro cao; khẳng định giá trị ràng buộc pháp lý của Khung đạo đức AI, trong đó các vi phạm có thể bị xử lý hành chính hoặc hình sự; và khuyến khích sự tham gia của các tổ chức xã hội, giới học thuật, doanh nghiệp vào hoạt động xây dựng và đánh giá đạo đức AI. "Chỉ khi hoàn thiện các cơ chế trên, Khung đạo đức AI mới có thể phát huy hiệu lực, bảo đảm công nghệ phát triển đúng hướng, an toàn và vì con người", đại biểu Nguyễn Thị Sửu nhấn mạnh.

Trách nhiệm như thế nào khi AI có sai sót?

Thảo luận về dự thảo Luật Trí tuệ nhân tạo, ĐBQH Phạm Như Hiệp (TP. Huế) cho biết, trí tuệ nhân tạo đang tạo ra những thay đổi sâu rộng trong lĩnh vực y tế, từ phẫu thuật, chẩn đoán đến nghiên cứu khoa học. Đại biểu dẫn chứng, phẫu thuật từ xa đã xuất hiện từ hơn 20 năm trước, và đến nay nhiều hệ thống robot có khả năng tự thực hiện phẫu thuật nội soi mà không cần sự can thiệp trực tiếp của con người. Với tốc độ phát triển nhanh của công nghệ, nếu được cho phép, AI hoàn toàn có thể đảm nhiệm một số công đoạn phẫu thuật, thậm chí đe dọa làm thay đổi vai trò truyền thống của các bác sĩ phẫu thuật. Trong chẩn đoán hình ảnh, AI đã được ứng dụng rộng rãi tại các bệnh viện, trong đó có Bệnh viện Trung ương Huế, hỗ trợ đọc X-quang, CT scan, phim sọ não.

DBQH Phạm Như Hiệp (Huế)

ĐBQH Phạm Như Hiệp (TP. Huế) phát biểu ý kiến góp ý về dự án Luật Trí tuệ nhân tạo tại Tổ 6. Ảnh: Hồ Long

Tuy vậy, đại biểu nhấn mạnh yêu cầu đặt ra là trách nhiệm khi AI mắc sai sót. Hiện nay, mọi kết quả AI đưa ra vẫn phải được bác sĩ lâm sàng và bác sĩ chẩn đoán hình ảnh kiểm tra, xác thực. Khi kết quả không khớp với thực tế lâm sàng, bác sĩ sẽ chỉnh sửa và cập nhật lại để AI tiếp tục học. Quy trình “học thụ động” này đang được nhiều bệnh viện áp dụng, nhưng vẫn cần khung pháp lý rõ ràng để bảo đảm an toàn cho người bệnh.

Đại biểu Phạm Như Hiệp cũng bày tỏ lo ngại về tác động của AI đối với nghiên cứu khoa học, khi phần mềm kiểm tra đạo văn đã trở nên phổ biến và một số công cụ AI hiện có thể viết gần như trọn vẹn một luận án tiến sĩ chỉ trong một ngày dựa trên dữ liệu được cung cấp. Điều này đặt ra thách thức lớn về đạo đức nghiên cứu và liêm chính khoa học, đồng thời cần được cân nhắc đưa vào các quy định pháp lý chuyên ngành.

Liên quan trách nhiệm pháp lý của nhà cung cấp AI (Điều 13), đại biểu đề nghị làm rõ chủ thể chịu trách nhiệm khi hệ thống AI gây ra sự cố hoặc tai nạn. Trường hợp xe tự lái là ví dụ điển hình: nếu xảy ra va chạm, cần xác định trách nhiệm thuộc về hệ thống, nhà sản xuất hay đơn vị quản lý vận hành. Đại biểu dẫn lại vụ tai nạn xe Tesla năm 2015 khiến nhà sản xuất phải bồi thường lớn, khẳng định AI không thể tự chịu trách nhiệm mà trách nhiệm phải thuộc về con người – những tổ chức, cá nhân thiết kế, sản xuất và đưa hệ thống vào sử dụng.

Đề cập đến khái niệm đạo đức AI, vốn được nhiều quốc gia áp dụng để xác định những hành vi AI được phép và không được phép thực hiện, đại biểu Phạm Như Hiệp cũng nhìn nhận, trong bối cảnh hệ thống AI có khả năng tự học, tự tư duy và thậm chí vượt khỏi giới hạn ban đầu của nhà sản xuất, việc phát triển và vận hành AI phải được đặt trong khuôn khổ pháp luật và đạo đức. Điều này không chỉ nhằm bảo đảm an toàn cho xã hội mà còn tạo nền tảng cho sự phát triển lành mạnh của ngành AI tại Việt Nam.

Muốn quản lý AI hiệu quả, phải làm rõ dữ liệu đầu vào và sở hữu trí tuệ

Đồng tình với các ý kiến nêu trên, ĐBQH Trịnh Xuân An (Đồng Nai) cũng nêu một loạt góp ý sâu sắc liên quan đến dự thảo Luật Trí tuệ nhân tạo, trong đó tập trung vào các nhóm vấn đề lớn: dữ liệu đầu vào, sở hữu trí tuệ, phạm vi áp dụng, cách tiếp cận quản lý rủi ro và mô hình tổ chức thực thi.

DBQH Trịnh Xuân An (Đồng Nai)

ĐBQH Trịnh Xuân An (Đồng Nai) phát biểu ý kiến tại Tổ 6 sáng 21/11. Ảnh: Hồ Long

Về dữ liệu đầu vào cho AI, đại biểu cho rằng, dữ liệu là nền tảng của trí tuệ nhân tạo nhưng dự thảo luật chưa làm rõ nội dung này. Các quy định về dữ liệu hiện thuộc Luật Dữ liệu và Luật Bảo vệ dữ liệu cá nhân. Nếu không đề cập cụ thể trong luật này thì tối thiểu phải có dẫn chiếu đầy đủ. Đại biểu đồng tình với yêu cầu dữ liệu phải “đúng – đủ – sạch – sống”, nhưng nhấn mạnh cần bổ sung tiêu chí dữ liệu phải được hệ thống hóa và nâng cấp liên tục, bởi đây là điều kiện để AI vận hành hiệu quả và an toàn.

Về sở hữu trí tuệ, ĐBQH Trịnh Xuân An nhận định, nội dung này trong dự thảo còn quá sơ sài, trong khi AI là sản phẩm của con người và gắn chặt với vấn đề quyền tác giả, người sở hữu, trách nhiệm pháp lý và đạo đức. Nếu không làm rõ cấu phần sở hữu trí tuệ ngay trong luật, việc quản lý AI sẽ rất khó khăn. Do đó, đại biểu kiến nghị phải sửa đổi Luật Sở hữu trí tuệ và đồng thời quy định vấn đề sở hữu ngay trong đạo luật này.

Đối với phạm vi áp dụng, đại biểu chỉ ra sự thiếu logic tại Điều 1 khi luật loại trừ việc áp dụng với AI phục vụ quốc phòng, an ninh, cơ yếu, tình báo, nhưng các khoản sau lại mở ra khả năng điều chỉnh nếu các hệ thống này được sử dụng cho mục đích khác. Trong môi trường số, rất khó tách bạch đâu là AI dùng cho an ninh – quốc phòng và đâu là dân sự, bởi AI có thể đồng thời hỗ trợ trong y tế, công nghiệp quốc phòng hay hệ thống không người lái. Vì vậy, việc loại trừ theo lĩnh vực là không khả thi. Đại biểu đề nghị xây dựng một khung điều chỉnh chung, thay vì chia theo mục đích sử dụng.

Đoàn Đồng Nai 1

Các ĐBQH tỉnh Đồng Nai tại phiên thảo luận Tổ 6 sáng 21/11. Ảnh: Hồ Long

Liên quan đến cách tiếp cận quản lý và phân loại rủi ro, đại biểu cho rằng dự thảo đang “áp” mô hình quản lý của châu Âu, tạo gánh nặng không cần thiết trong bối cảnh Việt Nam đang cần khuyến khích phát triển AI. Việc phân loại rủi ro theo bốn mức như dự thảo vừa phức tạp, vừa mâu thuẫn với Luật Chất lượng sản phẩm. Đại biểu đề xuất chỉ nên phân loại hai nhóm: sản phẩm AI có rủi ro và không có rủi ro, đồng thời kết hợp quản trị rủi ro với quản trị theo hiệu quả đầu ra và tác động kinh tế. Ông cũng cho rằng quy định để doanh nghiệp tự đánh giá rủi ro và giao Chính phủ quy định tiêu chí là “nửa chặt nửa hở”, khó khả thi trong thực tiễn.

Về mô hình tổ chức thực hiện, ĐBQH Trịnh Xuân An bày tỏ băn khoăn về đề xuất thành lập Quỹ tài chính ngoài ngân sách và Ủy ban Quốc gia về AI. Theo đại biểu, cần xem xét kỹ sự cần thiết của các thiết chế này, tránh tình trạng “cái gì cũng lập quỹ, lập ban” nhưng hiệu quả không cao. Nếu thực sự cần thiết, nên lồng ghép quỹ AI vào các quỹ hiện có, trừ trường hợp đặc thù như quỹ phục vụ quốc phòng, an ninh. Đại biểu cũng lưu ý rằng AI phải gắn với hoạt động kinh tế và sự chủ động của doanh nghiệp, do đó mô hình quản lý cần tinh gọn và hướng tới hiệu quả thực chất.

DBQH Bùi Xuân Thống (Đồng Nai)

ĐBQH Bùi Xuân Thống (Đồng Nai)

Đồng tình với ý kiến trên, các ĐBQH Nguyễn Thị Như Ý, Bùi Xuân Thống (Đồng Nai) cũng nhấn mạnh về khung đạo đức trong việc sử dụng trí tuệ nhân tạo. Theo đại biểu Bùi Xuân Thống, nếu quy định rằng người sử dụng phải chịu trách nhiệm với các quyết định do AI đưa ra, thì thực tế quyết định cuối cùng vẫn là của con người. AI chỉ là công cụ cung cấp thông tin tham khảo. Người ra quyết định cuối cùng mới chịu trách nhiệm về quyết định đó. Vì vậy, khung đạo đức nên tập trung vào trách nhiệm của con người trong việc sử dụng thông tin từ AI, chứ không cần quy định AI phải chịu trách nhiệm.

Đối với vấn đề xử lý vi phạm, đại biểu cho rằng hiện dự thảo nêu chung là có thể xử lý hành chính, dân sự, hoặc hình sự, nhưng chưa rõ ràng về giới hạn trách nhiệm. Do đó, đề nghị xác định rõ ràng hành vi nào sẽ chịu trách nhiệm hình sự, hành vi nào chịu trách nhiệm hành chính, và trách nhiệm cụ thể của người cung cấp, người phát triển cũng như người sử dụng. Đồng thời, cũng cần bổ sung các hành vi bị cấm và thiết kế lại khung này sao cho rõ ràng, vừa tạo điều kiện cho AI phát triển, vừa phân định rõ trách nhiệm của các bên liên quan.


Nguồn: https://daibieunhandan.vn/tri-tue-nhan-tao-phai-hoat-dong-trong-gioi-han-phap-luat-va-khung-dao-duc-10396524.html


Bình luận (0)

No data
No data

Cùng chủ đề

Cùng chuyên mục

Lần thứ 4 thấy núi Bà Đen rõ ràng hiếm gặp từ TP.HCM
Mãn nhãn cảnh đẹp Việt Nam trong MV Mục hạ vô nhân của Soobin
Các quán cà phê decor Giáng sinh sớm khiến doanh thu tăng vọt, thu hút đông đảo giới trẻ
Điều đặc biệt ở hòn đảo sát đường biên giới trên biển với Trung Quốc

Cùng tác giả

Di sản

Nhân vật

Doanh nghiệp

Ngắm trang phục dân tộc của 80 người đẹp thi Hoa hậu Quốc tế 2025 tại Nhật Bản

Thời sự

Hệ thống Chính trị

Địa phương

Sản phẩm