Законодатели продолжат обсуждать подробные правила в ближайшие недели, чтобы окончательный процесс можно было завершить в начале следующего года и, как ожидается, ввести в действие с 2026 года.
До этого момента компаниям рекомендуется присоединиться к добровольному Пакту по искусственному интеллекту для выполнения основных обязательств, предусмотренных правилами.
Ниже приводится основное содержание соглашения, согласованного ЕС.
Система высокого риска
Так называемые системы ИИ с высоким уровнем риска — те, которые, как считается, могут нанести значительный вред здоровью, безопасности, основным правам, окружающей среде, демократии, выборам и верховенству закона — должны будут соответствовать ряду требований, таких как прохождение испытаний по оценке воздействия на основные права и обязательства по доступу на рынок ЕС.
Между тем, системы с низким уровнем риска будут подчиняться более мягким обязательствам по обеспечению прозрачности, таким как маркировка контента, созданного ИИ, чтобы пользователи могли рассмотреть возможность его использования.
ИИ в правоохранительных органах
Правоохранительным органам разрешено использовать системы удаленной биометрической идентификации в режиме реального времени только в общественных местах для идентификации жертв похищений, торговли людьми, сексуальной эксплуатации, а также для предотвращения конкретных и неминуемых террористических угроз.
Властям также будет разрешено использовать технологию ИИ для отслеживания подозреваемых в терроризме, торговле людьми, сексуальной эксплуатации, убийствах, похищениях людей, изнасилованиях, вооруженных ограблениях, участии в преступной организации и экологических преступлениях.
Системы общего и платформенного ИИ (GPAI)
На GPAI и базовые модели распространяются требования прозрачности, такие как создание технической документации, соблюдение законодательства ЕС об авторском праве и публикация подробных описаний контента, используемого для обучения алгоритмов.
Платформенные модели, подпадающие под категорию потенциально создающих системный риск и высокоэффективный ГПИИ, должны будут проводить общую оценку модели, анализировать и снижать риски, проводить обратную разработку, уведомлять Европейскую комиссию о серьезных инцидентах, обеспечивать кибербезопасность и отчитываться о потреблении энергии.
До тех пор пока не будут опубликованы гармонизированные стандарты ЕС, учреждениям, оказывающим услуги общего назначения, будет грозить системный риск необходимости полагаться на кодексы практики для соблюдения нормативных требований.
Запрещенные системы ИИ
Запрещенное поведение и контент включают: Биометрические системы классификации, которые используют конфиденциальные характеристики, такие как политические , религиозные, философские убеждения, сексуальная ориентация и раса;
Нецелевое сканирование изображений лиц из Интернета или записей камер видеонаблюдения для создания базы данных распознавания лиц;
Распознавание эмоций на рабочем месте и в образовательных учреждениях;
Социальная оценка основана на социальном поведении или личных качествах;
Системы ИИ манипулируют поведением человека, чтобы подорвать его свободную волю;
ИИ используется для эксплуатации человеческих слабостей, обусловленных возрастом, инвалидностью, экономическим или социальным положением.
Санкции
В зависимости от нарушения и размера вовлеченной компании штрафы будут начинаться от 7,5 млн евро (8 млн долларов США) или 1,5% от годового мирового оборота и достигать 35 млн евро или 7% от мирового оборота.
(По данным Reuters)
ЕС достиг исторического соглашения по регулированию искусственного интеллекта
ЕС достиг соглашения по Закону о защите смарт-устройств
ЕС ужесточает меры в отношении технологических гигантов, угрожая разделить компании-нарушители
Источник
Комментарий (0)