После 36 часов дебатов в Брюсселе переговорщики разработали правила использования ИИ в Европе, которые они называют «Законом об ИИ» и утверждают, что они не будут препятствовать развитию этой области.
Фото: AP
«История! Благодаря сегодняшнему политическому соглашению по Закону об ИИ ЕС становится первым континентом, установившим чёткие правила использования ИИ», — заявил комиссар ЕС по внутреннему рынку Тьерри Бретон.
«Закон об ИИ — это больше, чем просто свод правил. Это стартовая площадка для стартапов и исследователей из ЕС, которая позволит им возглавить глобальную гонку за надежный ИИ», — добавил он.
В связи с этим «Закон об искусственном интеллекте» ЕС был принят в спешке, так же быстро, как и бурный рост числа моделей искусственного интеллекта, таких как чат-бот ChatGPT, начиная с конца 2022 года.
Признавая прогресс и полезность моделей ИИ, критики по-прежнему обеспокоены тем, что эта технология может быть легко использована во вредоносных целях.
Европейская комиссия впервые предложила этот закон в 2021 году. Его еще должны официально принять государства-члены, но политическое соглашение, достигнутое в пятницу, рассматривается как последнее существенное препятствие.
«Закон об искусственном интеллекте — это первый в мире закон. Единая правовая база для разработки ИИ, которой можно доверять», — заявила председатель Европейской комиссии Урсула фон дер Ляйен, приветствуя соглашение.
Помимо ЕС, другие страны и регионы также спешат принять законы или нормативные акты, регулирующие использование ИИ. Президент США Джо Байден в октябре издал указ о стандартах безопасности ИИ. Китай также ввёл конкретные нормативные акты в отношении ИИ в августе этого года.
В соответствии с Законом об искусственном интеллекте (AI) ЕС будет контролировать и наказывать нарушителей через новый орган под названием Управление по искусственному интеллекту (AI Office), которое будет иметь полномочия налагать штрафы в размере до 7% от оборота компании или 35 миллионов евро, в зависимости от того, какая сумма больше.
Хоанг Хай (по данным AFP, Reuters, AP)
Источник
Комментарий (0)