
За словами пана Лама, Існують цілком реальні та присутні ризики, такі як: штучний інтелект використовується для фальсифікації, маніпулювання інформацією, шахрайства та спричинення соціального розколу; заміни праці та посилення нерівності; спотворення культурних та інтелектуальних цінностей; а також загрози національній безпеці, обороні та цифровому суверенітету .
Найбільше тривожить те , Пан Лам страх Річ не в тому, що робить ШІ за командою людини, а в тому, що ШІ може робити, коли він знаходиться поза людським контролем. З наукової точки зору, якщо одного дня ШІ формуватиме власні цілі, інтерпретуватиме завдання таким чином, що не відповідає людським інтересам, або навіть вважатиме людей «ризиками», що станеться? Чи може виникнути надрозумна система, яка розглядатиме людей лише як «змінні» у своєму алгоритмі оптимізації?
« Науково-фантастичні історії про те, як штучний інтелект домінує над людьми, не мають на меті нас лякати, а нагадувати нам, що будь-який штучний прогрес може зрадити своєму початковому призначенню, якщо його не розробляти з урахуванням здорових етичних цінностей з самого початку. А історія довела, що будь-яка технологія, коли вона виходить з-під контролю, може спричинити наслідки, за які людство має дорого заплатити », – сказав пан Лам.
Ці ризики показують терміновість створення достатньо сильної правової бази для розвитку ШІ у правильному напрямку та безпечно для суспільства. Тому Щоб зробити Закон справді повним та далекоглядним, пан Лам запропонував ключове доповнення: розглядати ШІ як «новонароджену людську істоту». Інтелектуальну сутність, але все ще невинну . незнання законів, нерозуміння етики та етикету, відсутність культурних цінностей та нездатність розрізняти правильне від неправильного, якщо цього не навчають. З огляду на це, якщо ми розглядаємо ШІ як нову сутність, наш обов'язок полягає не лише в тому, щоб контролювати його, а й навчати його з самого початку, так само, як навчають дитину стандартним людським цінностям. І це має бути обов'язковим положенням у цьому Законі, а не просто рекомендацією.
Від там, Пан Лам запропонував Національній Асамблеї додати до цього Закону такі правові принципи: Будь-яке програмне забезпечення для штучного інтелекту, що працює у В'єтнамі, незалежно від того, чи розроблене воно вітчизняними чи іноземними організаціями, має бути оснащене стандартною базою даних про людський фундамент. Ця база даних повинна містити достатньо інформації, щоб навчити ШІ розуміти в'єтнамське законодавство; навчити ШІ етичним стандартам, культурі та добрим традиціям нації; навчити ШІ вмінню розрізняти правильне від неправильного, стандарт від стандарту. Поведінкові обмеження не повинні перевищувати правила виявлення ризиків для людей. І найголовніше, забезпечити, щоб ця базова база даних завжди мала абсолютний пріоритет у регулюванні поведінки ШІ; не повинна бути перезаписана, замінена або вимикатися будь-яким іншим алгоритмом чи навчальними даними. Це юридичне та технічне «золоте кільце», яке гарантує, що ШІ не збиться зі шляху.
Для ефективної реалізації цієї орієнтації пан Лам також рекомендував Міністерству науки і технологій взяти на себе ініціативу у створенні платформи баз даних «Бути в'єтнамцем» – уніфікованої, стандартизованої та постійно оновлюваної; надання її розробникам штучного інтелекту як обов'язкової вимоги. Уряд розробляє потужну національну обчислювальну інфраструктуру, щоб забезпечити навчання в'єтнамського штучного інтелекту в'єтнамським цінностям, а не залежності від іноземних моделей. Створити Національний центр тестування штучного інтелекту для оперативної оцінки девіантної поведінки, контролю моделей високого ризику та оперативного втручання, коли є ознаки перевищення меж. Сприяти освіті в галузі штучного інтелекту в усьому суспільстві, зосереджуючись на допомозі людям, бізнесу та особливо державному сектору мати здатність належним чином ідентифікувати, використовувати та контролювати штучний інтелект.
Водночас, дивлячись на світ, людство занадто швидко вступає в еру штучного інтелекту, тоді як глобальна правова база ще не наздогнала цього. Подібно до Ханойської конвенції про запобігання кіберзлочинності, світу знадобиться міжнародна Конвенція про безпеку штучного інтелекту, щоб встановити спільні стандарти, запобігти виходу ризиків з-під контролю та захистити права людини перед обличчям розвитку штучного інтелекту. Завдяки проактивному, обережному та гуманному баченню В'єтнам може безперечно взяти на себе ініціативу та очолити цю ініціативу.
«Сьогоднішній Закон про штучний інтелект — це не просто закон про технології, а закон майбутнього; зобов’язання Національних зборів перед народом: ми розробляємо технології, але не втрачаємо контролю; сприяємо інноваціям, але не дозволяємо ризикам виходити за межі нашої досяжності; та розвиваємо штучний інтелект з в’єтнамськими цінностями, щоб служити в’єтнамському народу», — сказав пан Лам.
Джерело: https://daidoanket.vn/hay-coi-ai-nhu-mot-con-nguoi-moi-sinh-va-day-ai-nhu-mot-dua-tre.html






Коментар (0)