Ранее члены ЕС согласились использовать технологию сканирования лиц в общественных местах только в определенных ситуациях, связанных с деятельностью правоохранительных органов, что является «красной линией» для стран, ведущих переговоры с Европейским парламентом и Комиссией.
Некоторые члены правоцентристского крыла предложили исключения, которые могли бы использовать технологию биометрического отслеживания для поиска пропавших детей или предотвращения террористических атак, но они также не были одобрены на пленарном голосовании.
Законодатели согласились ввести дополнительные меры в отношении платформ генеративного ИИ, таких как GPT-4, обязывая такие компании, как OpenAI и Google, проводить оценки рисков и раскрывать, какие защищенные авторским правом материалы использовались для обучения моделей ИИ.
Подход ЕС к регулированию основан на оценке рисков. Он фокусируется на регулировании использования ИИ, а не самой технологии, полностью запрещая некоторые приложения, такие как социальный скоринг, и устанавливая стандарты использования этой технологии в ситуациях «высокого риска».
Полный текст проекта Закона об ИИ был принят 14 июня, что открыло путь для последующего «трехстороннего» обсуждения между Европарламентом, государствами-членами и Европейской комиссией.
Комиссия надеется достичь соглашения к концу этого года, чтобы ввести Закон об искусственном интеллекте в действие для компаний уже в 2026 году. Тем временем некоторые чиновники настаивают на принятии добровольного «кодекса поведения» для компаний, который распространялся бы на страны «Большой семерки», а также на Индию и Индонезию.
Ужесточение регулирования ЕС в отношении искусственного интеллекта может оказать серьезное влияние на сектор, стоимость которого оценивается более чем в 1,3 триллиона долларов США в течение следующих 10 лет, поскольку нарушение правил блока может привести к штрафам в размере до 6% от годового оборота.
(По данным Bloomberg)
Источник
Комментарий (0)