Члени ЄС раніше домовилися використовувати технологію сканування обличчя в громадських місцях лише в певних ситуаціях, пов'язаних з правоохоронними органами, що є «червоною лінією» для країн, які ведуть переговори з Європейським парламентом та Комісією.
Деякі правоцентристські депутати запропонували винятки, які могли б використовувати технологію біометричного відстеження для пошуку зниклих безвісти дітей або запобігання терористичним атакам, але вони також не були схвалені на пленарному голосуванні.
Законодавці погодилися запровадити додаткові заходи щодо платформ генеративного штучного інтелекту, таких як GPT-4, вимагаючи від таких компаній, як OpenAI та Google, проводити оцінку ризиків та розкривати, які матеріали, захищені авторським правом, використовувалися для навчання моделей штучного інтелекту.
Підхід ЄС до регулювання базується на оцінці ризиків. Він зосереджений на регулюванні використання штучного інтелекту, а не самої технології, повністю забороняючи деякі програми, такі як соціальний скоринг, та встановлюючи стандарти для використання технології у ситуаціях «високого ризику».
Повний текст проекту Закону про штучний інтелект було прийнято 14 червня, що відкрило шлях для подальшого «тристороннього» обговорення між Європейським парламентом, державами-членами та Європейською комісією.
Комісія сподівається досягти угоди до кінця цього року, щоб запровадити Закон про штучний інтелект для компаній вже у 2026 році. Тим часом деякі посадовці наполягають на добровільному «кодексі поведінки» для компаній, який би застосовувався до країн G-7, а також до Індії та Індонезії.
Посилення регулювання штучного інтелекту в ЄС може мати значний вплив на сектор, вартість якого, за оцінками, перевищує 1,3 трильйона доларів протягом наступних 10 років, оскільки порушення правил блоку може призвести до штрафів у розмірі до 6% річного обороту.
(За даними Блумберга)
Джерело






Коментар (0)