Класифікація систем штучного інтелекту за чотирма рівнями ризику
Вранці 21 листопада Національні збори заслухали презентацію та звіт про розгляд проекту Закону про штучний інтелект.
Представляючи звіт, міністр науки і технологій Нгуєн Мань Хунг заявив, що законопроект розроблено для створення проривного правового коридору для штучного інтелекту, сприятливого правового середовища для просування інновацій, підвищення національної конкурентоспроможності та водночас управління ризиками, захисту національних інтересів, прав людини та цифрового суверенітету.

Міністр науки і технологій Нгуєн Мань Хунг представив доповідь.
Для регулювання систем штучного інтелекту в законопроекті прийнято підхід до управління на основі ризиків, класифікуючи штучний інтелект на чотири рівні та встановлюючи відповідні зобов'язання.
Системи штучного інтелекту класифікуються за чотирма рівнями ризику: неприйнятний ризик: система може завдати серйозної, непоправної шкоди.
Високий ризик – це система, яка може завдати шкоди життю, здоров’ю, правам та законним інтересам; середній ризик – система, яка має ризик заплутати, маніпулювати або обдурити користувачів. Низький ризик – це решта випадків.
Постачальник повинен самостійно класифікувати систему перед її розповсюдженням і несе відповідальність за результати класифікації.
Для систем середнього та високого ризику постачальник повинен повідомити Міністерство науки і технологій через Єдиний портал. Компетентний орган має право переглянути та повторно оцінити класифікацію.
Закон передбачає відповідальність за прозорість, маркування та підзвітність. Зокрема, сторона, що впроваджує контент, повинна чітко повідомляти та маркувати контент, створений або відредагований з використанням фейкових елементів, імітації реальних людей (діпфейк), що може призвести до непорозумінь, або контент, створений штучним інтелектом для комунікаційних та рекламних цілей.
Постачальники та виконавці повинні пояснювати результати обробки систем високого ризику на вимогу зацікавлених сторін.
У разі інциденту сторони несуть відповідальність за оперативне виправлення, призупинення або вилучення системи та повідомлення про це через Єдиний портал. З метою управління ризиками, при неприйнятному ризику, ці системи заборонено розробляти, постачати, розгортати або використовувати в будь-якій формі.
До забороненого списку входять системи, що використовуються для дій, заборонених законом, використання фальшивих елементів для обману, маніпуляцій та заподіяння серйозної шкоди, використання слабких сторін вразливих груп (дітей, людей похилого віку тощо) або створення фальшивого контенту, який серйозно шкодить національній безпеці.
Для систем високого ризику, система високого ризику повинна бути оцінена на придатність перед обігом або введенням в експлуатацію.
Оцінювання може здійснюватися у формі сертифікації відповідності (виконується акредитованим органом) або нагляду за відповідністю (самостійна оцінка постачальником).
Прем'єр-міністр визначає Перелік систем штучного інтелекту з високим рівнем ризику, що відповідає кожній формі оцінки.
Детальні зобов'язання встановлені для постачальника (встановлення заходів управління ризиками, управління даними навчання, підготовка технічної документації, забезпечення людського нагляду) та виконавця (експлуатація за призначенням, забезпечення безпеки, виконання зобов'язань щодо прозорості).
Іноземні постачальники з системами високого ризику повинні мати уповноваженого представника у В'єтнамі та повинні створити юридичну особу у В'єтнамі, якщо система підлягає обов'язковій сертифікації відповідності.
Для моделей середнього, низького ризику та багатоцільових моделей система середнього ризику повинна забезпечувати прозорість та маркування.
Проект також визначає обов'язки розробників та користувачів моделей штучного інтелекту загального призначення щодо забезпечення дотримання законодавства В'єтнаму. Посилені зобов'язання застосовуються до моделей GPAI із системним ризиком (потенціалом далекосяжних наслідків), включаючи оцінку впливу, ведення технічного обліку та повідомлення Міністерства науки і технологій.
Однак, моделі штучного інтелекту з відкритим кодом загального призначення звільнені від цих розширених зобов'язань; якщо для розробки системи штучного інтелекту використовується модель з відкритим кодом, організація-користувач повинна здійснювати управління ризиками цієї системи.
Розгляньте можливість використання невидимого маркування для зменшення витрат
З точки зору експертизи, голова Комітету з питань науки, технологій та навколишнього середовища Нгуєн Тхань Хай заявив, що Комітет вважає маркування продуктів штучного інтелекту обов'язковим етичним та юридичним обов'язком для зміцнення довіри в епоху штучного інтелекту.

Голова Комітету з питань науки, технологій та навколишнього середовища Нгуєн Тхань Хай.
Погоджуючись загалом із положеннями щодо маркування, що містяться в законопроекті, Комітет рекомендує звернутися до міжнародного досвіду щодо продуктів, створених за допомогою штучного інтелекту, щоб забезпечити їхню придатність до практичних умов В'єтнаму.
Для продуктів та апаратних пристроїв із застосуванням штучного інтелекту (таких як холодильники, телевізори, пральні машини тощо) рекомендується дослідити та розглянути можливість застосування невидимих водяних знаків для зменшення витрат та процедур, водночас забезпечуючи управління та відстеження.
Водночас пропонується передбачити в проекті Закону принципи, за якими Уряд надаватиме детальні інструкції щодо форм, технічних стандартів та звільнень.
Існує пропозиція змінити положення щодо маркування з обов'язкових на рекомендовані, з мінімальними технічними рекомендаціями.
Водночас необхідно запровадити пілотний механізм добровільного маркування в низці сфер; водночас посилити комунікацію, щоб уникнути непорозуміння, що «відсутність маркування означає, що продукт не є продуктом штучного інтелекту».
Щодо класифікації ризиків, Комітет вважає, що чотирирівнева класифікація, тоді як Закон про якість продукції та товарів класифікує продукцію та товари на три типи, є несумісною, якщо штучний інтелект розглядається як продукція та товар.
Правила сертифікації відповідності для систем штучного інтелекту високого ризику не відповідають принципам управління продуктами та товарами високого ризику, передбаченим Законом про якість продукції та товарів.
Тому рекомендується продовжити перегляд та ретельно порівняти положення проекту Закону з чинним законодавством.
Джерело: https://mst.gov.vn/de-xuat-dung-ai-de-truyen-thong-quang-cao-phai-dan-nhan-thong-bao-ro-197251125140252967.htm










Коментар (0)