Законодавці продовжать обговорення детальних правил найближчими тижнями з метою завершення процесу на початку наступного року, з планом застосовувати їх з 2026 року.

До того часу компаніям рекомендується приєднатися до добровільного Пакту про штучний інтелект, щоб виконати ключові зобов'язання, передбачені правилами.

Нижче наведено основний зміст угоди, узгодженої ЄС.

Система високого ризику

Так звані системи штучного інтелекту високого ризику – ті, що вважаються такими, що можуть завдати значної шкоди здоров’ю, безпеці, основним правам, довкіллю, демократії, виборам та верховенству права – повинні будуть відповідати низці вимог, таких як проходження оцінки впливу на основні права та зобов’язання ЄС щодо доступу до ринку.

елткховексвйбнмивубкксийй3ха.jpg
Huenit, камера зі штучним інтелектом, встановлена ​​на роботизованій руці, на ярмарку споживчих технологій, що відбувся в Берліні 1 вересня 2023 року. Фото: Reuters

Тим часом системи з низьким рівнем ризику підлягатимуть меншим зобов'язанням щодо прозорості, таким як маркування контенту, створеного штучним інтелектом, щоб користувачі могли розглянути можливість його використання.

Штучний інтелект у правоохоронних органах

Правоохоронним органам дозволено використовувати системи дистанційної біометричної ідентифікації в режимі реального часу лише в громадських місцях для ідентифікації жертв викрадення людей, торгівлі людьми, сексуальної експлуатації, а також для запобігання конкретним та неминучим терористичним загрозам.

Владі також буде дозволено використовувати технології штучного інтелекту для відстеження підозрюваних у тероризмі, торгівлі людьми, сексуальній експлуатації, вбивствах, викраденнях людей, зґвалтуванні, збройному пограбуванні, участі у злочинній організації та екологічних злочинах.

Загальні та платформні системи штучного інтелекту (GPAI)

GPAI та базові моделі підлягатимуть вимогам прозорості, таким як створення технічної документації, дотримання законодавства ЄС про авторське право та публікація детальних описів контенту, що використовується для навчання алгоритмів.

Моделі платформ, що належать до категорії потенційно створюють системний ризик та мають високий вплив на GPAI, повинні будуть проводити загальну оцінку моделі, переглядати та пом'якшувати ризики, проводити зворотне інженерне тестування, повідомляти Європейську Комісію про серйозні інциденти, забезпечувати кібербезпеку та звітувати про споживання енергії.

owaad7543vnahei6k3ozfuuo5u.jpg
Робот «Rmeca» на саміті Good Global у Женеві, Швейцарія. Фото: Reuters

До публікації гармонізованих стандартів ЄС, GPAI перебувають під системним ризиком покладання на кодекси практики для дотримання нормативних актів.

Системи штучного інтелекту заборонені

Заборонена поведінка та контент включають: біометричні системи класифікації, що використовують конфіденційні характеристики, такі як політика , релігія, філософські переконання, сексуальна орієнтація та раса;

Нецільове сканування зображень обличчя з Інтернету або записів з камер відеоспостереження для створення бази даних розпізнавання облич;

Розпізнавання емоцій на робочому місці та в освітньому середовищі;

Соціальне оцінювання на основі соціальної поведінки або особистісних характеристик;

Системи штучного інтелекту маніпулюють поведінкою людей, щоб підірвати їхню вільну волю;

Штучний інтелект використовується для використання людських слабкостей, спричинених їхнім віком, інвалідністю, економічними чи соціальними обставинами.

Санкції

Залежно від порушення та розміру компанії, штрафи починатимуться від 7,5 мільйонів євро (8 мільйонів доларів США) або 1,5% від річного світового обороту та зростатимуть до 35 мільйонів євро або 7% від світового обороту.

(За даними Reuters)

ЄС досяг історичної угоди щодо регулювання штучного інтелекту

ЄС досяг історичної угоди щодо регулювання штучного інтелекту

Угода між Європейським парламентом та державами-членами регулюватиме штучний інтелект (ШІ), соціальні мережі та пошукові системи.
ЄС досяг угоди щодо Закону про захист смарт-пристроїв

ЄС досяг угоди щодо Закону про захист смарт-пристроїв

30 листопада законодавці ЄС досягли попередньої згоди щодо пропозиції щодо захисту підключених пристроїв, яка вимагає гарантування кібербезпеки для продуктів з цифровими елементами, перш ніж вони будуть введені в експлуатацію на цьому ринку.
ЄС жорсткіше ставиться до технологічних гігантів, погрожуючи ліквідувати компанії-порушники

ЄС жорсткіше ставиться до технологічних гігантів, погрожуючи ліквідувати компанії-порушники

Європейський Союз (ЄС) продовжує посилювати управління великими технологічними компаніями за допомогою суворих санкцій, які можуть оштрафувати на 10-20% світового доходу і навіть примусити до поділу компаній, що не дотримуються правил.