SGGP
В стремлении ужесточить регулирование в области искусственного интеллекта ключевые законодатели Европейского союза (ЕС) согласовали ряд поправок к проекту правил регулирования искусственного интеллекта (ИИ), направленных на ограничение инновационных решений в этой сфере, таких как ChatGPT.
| Panasonic Connect помог сотрудникам в Японии использовать системы искусственного интеллекта для повышения производительности труда. (Фото: Nikkei Asia) |
Ожидания от первого полного закона
Голосование 11 мая по законопроекту о регулировании ИИ ознаменовало новый шаг в процессе принятия официального законодательства, регулирующего инструменты ИИ, такие как ChatGPT. Комитеты Европейского парламента, отвечающие за защиту прав потребителей и гражданские свободы, одобрили проект текста, подтвердив необходимость контроля за использованием ИИ в ЕС, одновременно содействуя инновациям в этой области, но с соблюдением основных прав, согласно которым ИИ должен служить людям, обществу и окружающей среде.
После двух лет обсуждений ожидается, что Закон об искусственном интеллекте станет первым всеобъемлющим законом, регулирующим эту технологию в ЕС, поскольку он включает положения, запрещающие использование технологии распознавания лиц в общественных местах (что, как прогнозируется, вызовет конфликт между странами ЕС), а также инструментов, использующих алгоритмы для прогнозирования преступного поведения, приложений, созданных с помощью ИИ, таких как ChatGPT от OpenAI, биометрической верификации и т. д. Соответственно, эти приложения должны отправлять пользователям уведомления о том, что продукты этих инструментов созданы машинами, а не людьми.
Этот документ также включает положения, требующие добавления критериев для выявления областей высокого риска для применения ИИ, что ограничивает масштабы разработки инструментов. Инструменты ИИ будут классифицироваться в зависимости от уровня риска, который может представлять каждый инструмент. Правительства и компании, использующие эти инструменты, будут нести различные обязательства в зависимости от уровня риска.
В следующем месяце проект текста будет представлен на утверждение всему Европейскому парламенту, после чего будет направлен в государства-члены ЕС для дальнейшего рассмотрения и доработки. Хотя предложенный Европейской комиссией (ЕК) список уже включает использование ИИ в управлении критической инфраструктурой, образовании , управлении персоналом, общественном порядке и иммиграции, депутаты Европарламента также хотят добавить нормативные пороги, определяющие угрозы безопасности, здоровью и основным правам человека.
Япония возьмет на себя ведущую роль.
Многие страны также ищут решения дилеммы, связанной с необходимостью одновременно предотвратить отставание отечественной промышленности и решить проблемы, касающиеся конфиденциальности граждан.
В Азии впервые был созван Стратегический совет по искусственному интеллекту при правительстве Японии с целью создания рамочной основы для руководства развитием ИИ. Выступая перед советом, премьер-министр Фумио Кисида заявил: «Искусственный интеллект обладает потенциалом для позитивного преобразования нашего общества и экономики , но он также сопряжен с рисками. Крайне важно надлежащим образом решать обе проблемы».
Использование технологий искусственного интеллекта будет способствовать повышению конкурентоспособности промышленности и решению социальных проблем, но его необходимо применять рационально и с минимальным риском для пользователей. Однако до настоящего времени дискуссии в основном были сосредоточены на технических аспектах. Японские эксперты призывают к тому, чтобы в будущем обсуждения проводились в более широком контексте, охватывающем такие области, как бизнес и право. Nikkei Asia отмечает, что одной из задач, стоящих перед Японией, является повышение уровня развития ИИ внутри страны при одновременном регулировании его общего использования, где безопасность, конфиденциальность и авторское право являются важнейшими вопросами.
Искусственный интеллект начинает вносить изменения в повседневную жизнь, поскольку все больше поддельных изображений и видеороликов, а также текста, сгенерированного роботами, вызывают опасения, начиная от национальной безопасности и заканчивая дезинформацией. Министры цифровых технологий и информационных технологий стран «Большой семерки» (G7) договорились к концу этого года разработать руководящие принципы общего развития и использования ИИ. В связи с председательством Японии в G7 в 2023 году премьер-министр Кисида заявил, что Япония возьмет на себя ведущую роль в разработке международных правил для полного использования перспектив ИИ и решения проблем, связанных с его рисками.
Подобно Японии, Белый дом на прошлой неделе объявил об инвестировании 140 миллионов долларов в создание семи исследовательских центров в области искусственного интеллекта и выпуск руководящих принципов по использованию этой передовой технологии, стремясь создать правила, которые минимизируют риски, не препятствуя при этом развитию инновационных приложений ИИ. Выступая перед Советом советников по науке и технологиям, президент США Джо Байден подчеркнул, что ИИ может помочь в решении некоторых очень сложных проблем, таких как болезни и изменение климата, но мы также должны учитывать потенциальные риски для общества, экономики и национальной безопасности. Технологические компании несут ответственность за обеспечение безопасности своей продукции до ее выпуска на рынок.
Источник







Комментарий (0)