Законодатели продолжат обсуждать подробные правила в ближайшие недели с целью завершить процесс в начале следующего года, а вступление в силу планируется с 2026 года.

До этого момента компаниям рекомендуется присоединиться к добровольному Пакту по ИИ, чтобы выполнить основные обязательства, предусмотренные правилами.

Ниже приводится основное содержание соглашения, согласованного ЕС.

Система высокого риска

Так называемые системы ИИ с высоким уровнем риска — те, которые, как считается, могут нанести значительный вред здоровью, безопасности, основным правам, окружающей среде, демократии, выборам и верховенству закона — должны будут соответствовать ряду требований, таких как прохождение оценки воздействия на основные права и обязательства по доступу на рынок ЕС.

eltqxowexvjbnmywubkxiyj3ha.jpg
Huenit, камера с искусственным интеллектом, установленная на роботизированной руке на выставке потребительских технологий в Берлине, 1 сентября 2023 года. Фото: Reuters

Между тем, системы с низким уровнем риска будут подчиняться более мягким обязательствам по обеспечению прозрачности, таким как маркировка контента, созданного ИИ, чтобы пользователи могли рассмотреть возможность его использования.

ИИ в правоохранительных органах

Правоохранительным органам разрешено использовать системы удаленной биометрической идентификации в режиме реального времени только в общественных местах для идентификации жертв похищений, торговли людьми, сексуальной эксплуатации, а также для предотвращения конкретных и неминуемых террористических угроз.

Властям также будет разрешено использовать технологию ИИ для отслеживания подозреваемых в терроризме, торговле людьми, сексуальной эксплуатации, убийствах, похищениях людей, изнасилованиях, вооруженных ограблениях, участии в преступной организации и экологических преступлениях.

Системы общего и платформенного ИИ (GPAI)

На GPAI и базовые модели распространяются требования прозрачности, такие как создание технической документации, соблюдение законодательства ЕС об авторском праве и публикация подробных описаний контента, используемого для обучения алгоритмов.

Платформенные модели, подпадающие под категорию потенциально создающих системный риск и высокоэффективный ГПИИ, должны будут проводить общую оценку модели, анализировать и снижать риски, проводить тестирование методом обратного инжиниринга, уведомлять Европейскую комиссию о серьезных инцидентах, обеспечивать кибербезопасность и предоставлять отчетность по потреблению энергии.

owaad7543vnahei6k3ozfuuo5u.jpg
Робот «Rmeca» на саммите Good Global Summit в Женеве, Швейцария. Фото: Reuters

До тех пор пока не будут опубликованы гармонизированные стандарты ЕС, учреждениям, оказывающим услуги общего назначения, будет грозить системный риск необходимости полагаться на кодексы практики для соблюдения нормативных требований.

Системы искусственного интеллекта запрещены

Запрещенное поведение и контент включают: Биометрические системы классификации, которые используют конфиденциальные характеристики, такие как политика , религия, философские убеждения, сексуальная ориентация и раса;

Нецелевое сканирование изображений лиц из Интернета или записей камер видеонаблюдения для создания базы данных распознавания лиц;

Распознавание эмоций на рабочем месте и в образовательных учреждениях;

Социальная оценка, основанная на социальном поведении или личных характеристиках;

Системы ИИ манипулируют поведением человека, чтобы подорвать его свободную волю;

ИИ используется для эксплуатации человеческих слабостей, обусловленных возрастом, инвалидностью, экономическим или социальным положением.

Санкции

В зависимости от нарушения и размера вовлеченной компании штрафы будут начинаться с 7,5 млн евро (8 млн долларов США) или 1,5% от годового мирового оборота и увеличиваться до 35 млн евро или 7% от мирового оборота.

(По данным Reuters)

ЕС достиг исторического соглашения по регулированию искусственного интеллекта

ЕС достиг исторического соглашения по регулированию искусственного интеллекта

Соглашение между Европейским парламентом и государствами-членами будет регулировать искусственный интеллект (ИИ), социальные сети и поисковые системы.
ЕС достиг соглашения по Закону о защите смарт-устройств

ЕС достиг соглашения по Закону о защите смарт-устройств

30 ноября законодатели ЕС достигли предварительного соглашения по предложению о защите подключенных устройств, требующему предоставления гарантий кибербезопасности для продуктов с цифровыми элементами до их выпуска на рынок.
ЕС ужесточает меры в отношении технологических гигантов, угрожая разделить компании-нарушители

ЕС ужесточает меры в отношении технологических гигантов, угрожая разделить компании-нарушители

Европейский союз (ЕС) продолжает ужесточать управление крупными технологическими компаниями, применяя строгие санкции, которые могут предусматривать штрафы в размере 10–20 % от мирового дохода и даже принуждать к разделению компаний, не соблюдающих правила.