Законодатели продолжат обсуждать подробные правила в ближайшие недели с целью завершить процесс в начале следующего года, а вступление в силу планируется с 2026 года.
До этого момента компаниям рекомендуется присоединиться к добровольному Пакту по ИИ, чтобы выполнить основные обязательства, предусмотренные правилами.
Ниже приводится основное содержание соглашения, согласованного ЕС.
Система высокого риска
Так называемые системы ИИ с высоким уровнем риска — те, которые, как считается, могут нанести значительный вред здоровью, безопасности, основным правам, окружающей среде, демократии, выборам и верховенству закона — должны будут соответствовать ряду требований, таких как прохождение оценки воздействия на основные права и обязательства по доступу на рынок ЕС.
Между тем, системы с низким уровнем риска будут подчиняться более мягким обязательствам по обеспечению прозрачности, таким как маркировка контента, созданного ИИ, чтобы пользователи могли рассмотреть возможность его использования.
ИИ в правоохранительных органах
Правоохранительным органам разрешено использовать системы удаленной биометрической идентификации в режиме реального времени только в общественных местах для идентификации жертв похищений, торговли людьми, сексуальной эксплуатации, а также для предотвращения конкретных и неминуемых террористических угроз.
Властям также будет разрешено использовать технологию ИИ для отслеживания подозреваемых в терроризме, торговле людьми, сексуальной эксплуатации, убийствах, похищениях людей, изнасилованиях, вооруженных ограблениях, участии в преступной организации и экологических преступлениях.
Системы общего и платформенного ИИ (GPAI)
На GPAI и базовые модели распространяются требования прозрачности, такие как создание технической документации, соблюдение законодательства ЕС об авторском праве и публикация подробных описаний контента, используемого для обучения алгоритмов.
Платформенные модели, подпадающие под категорию потенциально создающих системный риск и высокоэффективный ГПИИ, должны будут проводить общую оценку модели, анализировать и снижать риски, проводить тестирование методом обратного инжиниринга, уведомлять Европейскую комиссию о серьезных инцидентах, обеспечивать кибербезопасность и предоставлять отчетность по потреблению энергии.
До тех пор пока не будут опубликованы гармонизированные стандарты ЕС, учреждениям, оказывающим услуги общего назначения, будет грозить системный риск необходимости полагаться на кодексы практики для соблюдения нормативных требований.
Системы искусственного интеллекта запрещены
Запрещенное поведение и контент включают: Биометрические системы классификации, которые используют конфиденциальные характеристики, такие как политика , религия, философские убеждения, сексуальная ориентация и раса;
Нецелевое сканирование изображений лиц из Интернета или записей камер видеонаблюдения для создания базы данных распознавания лиц;
Распознавание эмоций на рабочем месте и в образовательных учреждениях;
Социальная оценка, основанная на социальном поведении или личных характеристиках;
Системы ИИ манипулируют поведением человека, чтобы подорвать его свободную волю;
ИИ используется для эксплуатации человеческих слабостей, обусловленных возрастом, инвалидностью, экономическим или социальным положением.
Санкции
В зависимости от нарушения и размера вовлеченной компании штрафы будут начинаться с 7,5 млн евро (8 млн долларов США) или 1,5% от годового мирового оборота и увеличиваться до 35 млн евро или 7% от мирового оборота.
(По данным Reuters)
ЕС достиг исторического соглашения по регулированию искусственного интеллекта
ЕС достиг соглашения по Закону о защите смарт-устройств
ЕС ужесточает меры в отношении технологических гигантов, угрожая разделить компании-нарушители
Источник
Комментарий (0)