Маркировка продуктов, созданных с помощью ИИ

Подчеркивая важность механизма контроля рисков, связанных с ИИ в современной жизни, депутат Нгуен Там Хунг (Хошимин) выразил мнение, что законопроект, обязывающий поставщиков обеспечивать машиночитаемую маркировку ИИ-контента, крайне необходим. Однако он предложил рассмотреть возможность добавления обязательного требования отображать идентификационную информацию непосредственно в интерактивном интерфейсе, когда контент может вызвать путаницу, чтобы защитить обычных пользователей, особенно детей и пожилых людей, от риска дезинформации и глубоких фейков. Это положение повышает социальную ответственность поставщиков технологий и укрепляет доверие к цифровым технологиям.
Вместе с тем депутат Нгуен Там Хунг заявил, что в ходе исследований он обнаружил, что текущая многоцелевая модель искусственного интеллекта не только создаёт текст или изображения, но и может генерировать исходный код, инструменты атаки, инструкции по выполнению, процессы кибератак, методы финансового мошенничества и т. д. Далее депутат предложил добавить обязанность контролировать «самогенерирующую способность» модели при разрешении генерации исходного кода, а также наличие механизма предупреждения, блокировки и ограничения вывода, необходимого для обеспечения безопасности сети, общественного порядка и безопасности.

Рассматривая риски, создаваемые ИИ, депутат Фам Ван Хоа ( Донг Тхап ) заявил, что, хотя технология ИИ является инструментом поддержки людей, она несет в себе множество высоких рисков; депутат попросил редакционный комитет провести объективную и точную оценку этого вопроса.
«Риски могут затрагивать жизнь людей, имущество, права и законные интересы организаций и отдельных лиц», — заявил депутат Фам Ван Хоа, добавив, что для продуктов, созданных с помощью ИИ, должна быть предусмотрена маркировка. По его словам, маркировка ИИ нужна для того, чтобы люди знали, какие продукты созданы с помощью ИИ, а какие — нет.

Между тем, депутат Чинь Тхи Ту Ань ( Лам Донг ) заявила, что статья 11 законопроекта не в полной мере отражает концепцию оценки рисков, основанную на технологическом воздействии. По её словам, в нынешних условиях ИИ может создавать вредоносные методы, которые ранее не были выявлены. В связи с этим депутат Чинь Тхи Ту Ань предложила добавить следующее положение: «Правительство должно подробно определить и периодически обновлять и дополнять список систем искусственного интеллекта с неприемлемыми рисками, основываясь на оценке рисков, технологических тенденциях и практических требованиях к управлению. По её словам, этот механизм гарантирует, что закон не устареет и сможет оперативно реагировать на новые риски».
Предотвращение злоупотребления ИИ
Депутат Чан Кхань Ту (Хынг Йен) поднял вопрос об использовании ИИ для поддержки медицинского обследования и лечения, отметив, что ИИ не только помогает оптимизировать процессы в медицинской отрасли, снижая нагрузку на врачей и медицинских работников, но и играет важную роль в персонализации лечения, тем самым улучшая результаты медицинского обслуживания и повышая эффективность использования ресурсов. Однако применение ИИ для выявления признаков заболевания иногда приводит к обратным результатам.

Женщина-делегат привела реальный пример: 55-летний пациент из Хошимина находился в летаргическом состоянии, когда его доставили в больницу. До этого семья пациента использовала искусственный интеллект для диагностики, а затем пошла покупать лекарства. После приёма лекарств состояние пациента ухудшилось, и когда его доставили в больницу, у него диагностировали повреждение головного мозга, инсульт и неизбежные последствия.
«Безусловно, люди не должны использовать результаты поиска для постановки диагноза или назначения лекарств. Однако нарушают ли закон те, кто продаёт лекарства по рецептам, выписанным с помощью ИИ?» — задался вопросом депутат Тран Кхань Ту и выразил надежду, что в проекте закона об искусственном интеллекте будут более конкретные правовые положения, регулирующие управление продуктами искусственного интеллекта в сфере здравоохранения, особенно касающиеся ответственности соответствующих сторон.
Что касается перехода от постаудита к предварительному аудиту в законопроекте, депутат Тран Кхань Ту предложил установить четкий количественный порог, например, когда модель меняет свой алгоритм, увеличивает количество пользователей или данные обучения превышают определенный порог.

Рассматривая проблему «злоупотребления ИИ», депутат Фам Чонг Нгиа (Ланг Сон) заявил, что если мы слишком сильно полагаемся на ИИ в нашей жизни, это снижает наши мыслительные способности и творческие способности. Злоупотребление ИИ чревато множеством потенциальных нестабильностей, таких как: нарушение национального суверенитета, снижение эффективности государственного управления и негативное влияние на каждого человека и каждую семью, особенно на молодое поколение.
«В государственном секторе злоупотребление ИИ снижает осуществимость, гуманность и эффективность политики и законов. Предоставление ИИ конфиденциальной информации и данных, если не контролировать это строго, может привести к утечкам данных, нанести ущерб национальной безопасности, общественному порядку и безопасности с непредсказуемыми последствиями», — заявил депутат Фам Чонг Нгиа, предложивший добавить в законопроект положение, предусматривающее запрещённые действия, включая запрет на злоупотребление ИИ в государственном секторе.
Источник: https://www.sggp.org.vn/can-co-che-danh-gia-rui-ro-lien-quan-toi-ai-post825783.html






Комментарий (0)