Vietnam.vn - Nền tảng quảng bá Việt Nam

Як правильно використовувати ШІ

Báo Sài Gòn Giải phóngBáo Sài Gòn Giải phóng15/05/2023


СГГП

Прагнучи посилити регулювання щодо штучного інтелекту, ключові законодавці Європейського Союзу (ЄС) узгодили кілька поправок до проєкту правил щодо штучного інтелекту (ШІ), щоб обмежити інноваційний ШІ, такий як ChatGPT.

Panasonic Connect допоміг співробітникам у Японії використовувати системи штучного інтелекту для підвищення продуктивності. (Фото: Nikkei Asia)
Panasonic Connect допоміг співробітникам у Японії використовувати системи штучного інтелекту для підвищення продуктивності. (Фото: Nikkei Asia)

Очікування щодо першого повного закону

Голосування 11 травня за законопроект про регулювання штучного інтелекту стало новим кроком у процесі прийняття офіційного законодавства, що регулює інструменти штучного інтелекту, такі як ChatGPT. Комітети Європейського парламенту, відповідальні за захист прав споживачів та громадянські свободи, схвалили проект тексту, підтвердивши необхідність контролю за використанням штучного інтелекту в ЄС, одночасно сприяючи інноваціям у цій галузі, але з дотриманням основних прав, згідно з якими штучний інтелект повинен служити людям, суспільству та довкіллю.

Після двох років обговорення очікується, що Закон про штучний інтелект стане першим комплексним законом, що регулює цю технологію в ЄС, оскільки він додає положення, що забороняють використання технології розпізнавання облич у громадських місцях (що, за прогнозами, може спричинити конфлікт між країнами ЄС), та інструменти, що використовують алгоритми для прогнозування злочинної поведінки, додатки, створені штучним інтелектом, такі як ChatGPT від OpenAI, біометричну верифікацію тощо. Відповідно, ці додатки повинні надсилати користувачам сповіщення, інформуючи їх про те, що продукти цих інструментів створені машинами, а не людьми.

Цей документ також містить положення, що вимагають додавання критеріїв для визначення областей високого ризику для застосувань штучного інтелекту, тим самим обмежуючи масштаб розробки інструментів. Інструменти штучного інтелекту будуть класифіковані відповідно до рівня ризику, який кожен інструмент може становити. Уряди та компанії, які використовують ці інструменти, матимуть різні зобов'язання залежно від рівня ризику.

Наступного місяця проект тексту буде подано на затвердження всьому Європейському парламенту, перш ніж його буде надіслано державам-членам ЄС для подальшого розгляду та доопрацювання. Хоча список, запропонований Європейською комісією (ЄК), вже включає використання штучного інтелекту в управлінні критичною інфраструктурою, освіті , управлінні робочою силою, громадському порядку та імміграції, депутати Європарламенту також хочуть додати регуляторні пороги, що визначають загрози безпеці, здоров'ю та основним правам.

Японія візьме на себе ініціативу.

Багато країн також шукають вирішення дилеми одночасного запобігання відставанню вітчизняної промисловості та вирішення проблем щодо конфіденційності громадян.

В Азії вперше було скликано Раду стратегії розвитку штучного інтелекту уряду Японії з метою створення рамкової бази для розвитку штучного інтелекту. Виступаючи перед радою, прем'єр-міністр Фуміо Кішіда заявив: «Штучний інтелект має потенціал позитивно трансформувати наше суспільство та економіку , але він також несе ризики. Вкрай важливо належним чином вирішити обидві проблеми».

Використання технології штучного інтелекту сприятиме підвищенню конкурентоспроможності промисловості та вирішенню суспільних проблем, але її використання має бути раціональним та з мінімальними ризиками для користувачів. Однак до сьогодні дискусії зосереджувалися переважно на технічних аспектах. Японські експерти закликають до того, щоб у майбутньому дискусії проводилися з ширшої точки зору, охоплюючи такі сфери, як бізнес та право. Nikkei Asia припускає, що перед Японією стоїть завдання покращити рівень розвитку штучного інтелекту всередині країни, одночасно регулюючи загальне використання штучного інтелекту, де безпека, конфіденційність та авторське право є вирішальними питаннями.

Штучний інтелект починає порушувати повсякденне життя, оскільки дедалі більше фальшивих зображень і відео, а також текстів, згенерованих роботами, викликають занепокоєння, починаючи від національної безпеки і закінчуючи дезінформацією. Міністри цифрових технологій та технологій країн Групи семи (G7) промислово розвинених країн домовилися скласти керівні принципи щодо загального розвитку та використання ШІ до кінця цього року. Оскільки Японія головуватиме у G7 у 2023 році, прем'єр-міністр Кішіда заявив, що Японія візьме на себе ініціативу у розробці міжнародних правил, щоб повною мірою скористатися перспективами та врахувати ризики, пов'язані зі ШІ.

Подібно до Японії, Білий дім минулого тижня оголосив, що інвестує 140 мільйонів доларів у створення семи дослідницьких центрів штучного інтелекту та випуск інструкцій щодо використання цієї передової технології, з метою створення правил, які мінімізують ризики, не перешкоджаючи розвитку інноваційних застосувань штучного інтелекту. Виступаючи перед Радою радників з питань науки і технологій, президент США Джо Байден наголосив, що штучний інтелект може допомогти у вирішенні деяких дуже складних проблем, таких як хвороби та зміна клімату, але ми також повинні враховувати потенційні ризики для суспільства, економіки та національної безпеки. Технологічні компанії несуть відповідальність за забезпечення безпеки своєї продукції, перш ніж вона буде випущена на ринок.



Джерело

Коментар (0)

Залиште коментар, щоб поділитися своїми почуттями!

У тій самій темі

У тій самій категорії

Того ж автора

Спадщина

Фігура

Бізнеси

Thời sự

Політична система

Місцевий

Продукт

Happy Vietnam
Петунія

Петунія

народний

народний

Сільські ремесла: прекрасний аспект спадщини.

Сільські ремесла: прекрасний аспект спадщини.