СГГП
У спробі посилити регулювання штучного інтелекту, ключові законодавці Європейського Союзу (ЄС) узгодили кілька поправок до проєкту правил штучного інтелекту (ШІ) для обмеження генеративного ШІ, такого як ChatGPT.
Корпорація Panasonic Connect допомогла співробітникам у Японії використовувати системи штучного інтелекту для підвищення продуктивності. Фото: Nikkei Asia |
Очікування першого повного закону
Вирішальне голосування за законопроект про регулювання штучного інтелекту 11 травня стало новим кроком у процесі прийняття закону, який офіційно регулюватиме інструменти штучного інтелекту, такі як ChatGPT. Комітети Європейського парламенту (ЄП) із захисту прав споживачів та громадянських свобод схвалили проєкт тексту, підтвердивши думку про те, що використання штучного інтелекту в ЄС потребує регулювання, одночасно сприяючи інноваціям у цій галузі, але поважаючи основні права, згідно з якими штучний інтелект повинен служити людям, суспільству та довкіллю.
Після двох років обговорень, Закон про штучний інтелект, який очікується в ЄС, стане першим повним законом, що регулює цю технологію, оскільки він додав положення, що забороняють використання технології розпізнавання облич у громадських місцях (що, за прогнозами, може спричинити конфлікти між країнами ЄС), та інструменти, що використовують алгоритми для прогнозування злочинної поведінки, генеративні додатки ШІ, такі як ChatGPT від OpenAI, біометричні перевірки... Відповідно, ці додатки повинні надсилати сповіщення, щоб нагадати користувачам, що продукти цих інструментів створюються машинами, а не людьми.
Документ також містить розділ, який передбачає додаткові критерії для визначення областей високого ризику для застосувань штучного інтелекту, тим самим обмежуючи обсяг розробки інструментів. Інструменти штучного інтелекту будуть класифіковані відповідно до рівня ризику, який кожен інструмент може становити. Уряди та компанії, які використовують ці інструменти, матимуть різні зобов'язання залежно від рівня ризику.
Проект тексту буде представлений повному складу Європарламенту наступного місяця, перш ніж його буде надіслано державам-членам ЄС для розгляду та доопрацювання. Хоча список, запропонований Європейською комісією (ЄК), вже включає варіанти використання штучного інтелекту в управлінні критичною інфраструктурою, освіті , людських ресурсах, громадському порядку та імміграції, депутати Європарламенту також хочуть додати порогові значення для визначення загроз безпеці, здоров'ю та основним правам.
Японія візьме на себе ініціативу
Багато країн також шукають рішення проблеми як запобігання відставанню вітчизняної промисловості, так і вирішення проблем конфіденційності громадян.
В Азії було скликано першу в історії японську урядову Раду зі стратегії розвитку штучного інтелекту для створення рамкової програми для розвитку ШІ. Виступаючи перед радою, прем'єр-міністр Фуміо Кішіда заявив: «ШІ має потенціал позитивно змінити наше економічне суспільство, але також існують ризики. Важливо належним чином вирішити обидва питання».
Використання технології штучного інтелекту сприятиме підвищенню конкурентоспроможності промисловості, вирішенню проблем усього суспільства, але ШІ має використовуватися розумно та мінімізувати ризики для користувачів. Однак досі дискусії зосереджувалися переважно на технічних аспектах. Японські експерти закликають до того, що найближчим часом дискусії необхідно проводити на основі ширшої перспективи, за участю таких галузей, як бізнес та право. Nikkei Asia зазначила, що перед Японією стоїть завдання покращити рівень розвитку внутрішнього ШІ паралельно з акцентом на регулюванні використання загального ШІ, де важливими питаннями є безпека, конфіденційність та авторське право.
Штучний інтелект починає порушувати повсякденне життя, оскільки підроблені зображення та відео, а також текст, згенерований роботами, викликають занепокоєння, починаючи від національної безпеки і закінчуючи дезінформацією. Міністри цифрових технологій країн «Великої сімки» (G7) домовилися скласти рекомендації щодо розробки та використання загального штучного інтелекту до кінця цього року. Оскільки Японія головуватиме у G7 у 2023 році, прем'єр-міністр Кішіда заявив, що Японія візьме на себе ініціативу у формулюванні міжнародних правил, щоб максимально використати перспективи та впоратися з ризиками штучного ШІ.
Як і Японія, Білий дім минулого тижня оголосив, що інвестує 140 мільйонів доларів у створення семи дослідницьких центрів штучного інтелекту та публікацію рекомендацій щодо використання цієї передової технології з метою створення правил, які мінімізують ризики, але не перешкоджають розвитку інновацій на основі штучного інтелекту. Виступаючи перед Радою консультантів з питань науки і технологій, президент США Джо Байден наголосив, що штучний інтелект може допомогти впоратися з деякими дуже складними викликами, такими як хвороби та зміна клімату, але ми також повинні враховувати потенційні ризики для суспільства, економіки та національної безпеки. Технологічні компанії несуть відповідальність за забезпечення безпеки своєї продукції, перш ніж вона з'явиться на ринку.
Джерело
Коментар (0)