Неожиданно быстрое развитие ChatGPT — чат-бота на основе искусственного интеллекта (ИИ) с превосходными функциями в некоторой степени изменило жизнь человека, особенно в плане работы. Однако риски, связанные с этой технологией, вызывают обеспокоенность у властей многих стран, особенно опасения по поводу пользовательских данных.
В условиях, когда в мире по-прежнему отсутствует надежная новая правовая база для эффективного управления ИИ и обеспечения высокой надежности для пользователей, многие страны начали принимать меры по регулированию использования ChatGPT и ИИ в целом, чтобы минимизировать риски, которые несет с собой эта технология.
Многие страны «принимают меры» с помощью ИИ
Италия находится в авангарде принятия решения о запрете ChatGPT.
31 марта итальянские власти временно запретили приложение ChatGPT из-за проблем с конфиденциальностью и неспособности приложения проверить пользователей в возрасте 13 лет и старше, как того требует Италия. В то же время Италия также заявила, что начнет расследование того, как OpenAI использует пользовательские данные.
После запрета ChatGPT в Италии ряд стран приняли меры против этого приложения. (Фото: Рейтер).
Итальянский орган по защите данных установил для OpenAI — компании, создавшей ChatGPT, — крайний срок до конца апреля для выполнения требований по защите данных и конфиденциальности, прежде чем возобновить нормальную работу в стране.
Сразу после решения Италии многие страны начали «последовать» этой стране и заблокировать ChatGPT из-за опасений, связанных с безопасностью и конфиденциальностью данных.
Французские и ирландские органы по надзору за конфиденциальностью и безопасностью связались со своими коллегами в Италии, чтобы узнать об основаниях для запрета. 11 апреля французский орган по надзору за конфиденциальностью (CNIL) заявил, что расследует несколько жалоб на ChatGPT.
Комиссар Германии по защите данных заявил, что Берлин, скорее всего, «пойдёт по стопам Италии» и заблокирует ChatGPT.
В частности, 13 апреля Европейский орган по защите данных (EDPB) создал целевую группу по ChatGPT, заявив: «Государства-члены EDPB обсудили недавние меры принудительного характера, принятые итальянским органом по защите данных против OpenAI в отношении сервиса ChatGPT. EDPB принял решение о создании целевой группы для содействия сотрудничеству и обмена информацией о возможных мерах принудительного характера».
Кроме того, законодатели Европейского союза (ЕС) также обсуждают Закон ЕС об искусственном интеллекте, который будет регулировать деятельность любого лица, предоставляющего продукты или услуги с использованием искусственного интеллекта, включая системы, генерирующие контент, прогнозы, рекомендации или решения, влияющие на окружающую среду. ЕС также предлагает классифицировать различные инструменты ИИ по уровню риска: от низкого до неприемлемого.
Испанское агентство по защите данных AEPD объявило, что проводит предварительное расследование утечек данных ChatGPT.
Министерство науки и технологий Австралии 12 апреля объявило, что правительство обратилось к своему научному консультативному органу за советом о том, как реагировать на ИИ, и рассматривает следующие шаги.
Этот шаг поднимает вопросы о том, насколько безопасен ИИ и что могут сделать правительства для снижения связанных с ним рисков. В мартовском отчете консалтинговой компании KPMG и Австралийской ассоциации информационной индустрии говорится, что две трети австралийцев заявили, что в стране недостаточно законов и нормативных актов для предотвращения неправомерного использования ИИ, в то время как менее половины опрошенных считают, что ИИ безопасно используется на рабочем месте.
Многие страны начали принимать меры по регулированию технологий ИИ. (Фото: Рейтер).
В Великобритании правительство заявило, что намерено разделить ответственность за регулирование ИИ между органами по правам человека, охране труда и технике безопасности и по защите конкуренции вместо создания нового регулирующего органа.
Недавно лидер демократического большинства в Сенате США Чак Шумер разработал и опубликовал новую нормативную базу по ИИ, которая может предотвратить потенциально катастрофический ущерб для страны. Предложение Шумера потребует от компаний позволять независимым экспертам проверять и тестировать технологию ИИ перед ее выпуском или обновлением.
Ранее 11 апреля Министерство торговли США заявило, что ищет публичные комментарии относительно мер по обеспечению ответственности ИИ.
Тем временем Центр искусственного интеллекта и цифровой политики США обратился в Комиссию по торговле с просьбой запретить OpenAI выпускать новые коммерческие версии GPT-4, утверждая, что эта технология «предвзята, обманчива и представляет угрозу конфиденциальности и общественной безопасности».
Тем временем в Японии министр цифровой трансформации Таро Коно заявил, что хочет, чтобы на предстоящей встрече министров цифровых технологий стран G7, запланированной на конец апреля, были обсуждены технологии искусственного интеллекта, включая ChatGPT, и было принято единое послание G7.
Недавно Китай объявил о планируемых мерах по регулированию услуг ИИ, заявив, что компании, поставляющие технологии ИИ, должны предоставить властям оценку безопасности перед выпуском услуг на рынок.
Эксперты предупреждают об опасностях со стороны ИИ
Некоторые эксперты утверждают, что ИИ может привести к «катастрофе ядерного уровня». (Фото: Рейтер).
Опрос, опубликованный Институтом искусственного интеллекта Стэнфордского университета в начале апреля, показал, что 36% исследователей считают, что ИИ может привести к «ядерной катастрофе», что еще больше подчеркивает существующие опасения по поводу быстрого развития этой технологии.
Между тем, 73% ИИ приведут к «революционным социальным изменениям».
В отчете говорится, что, хотя возможности этих технологий были невообразимы еще десять лет назад, они иллюзорны, предвзяты и уязвимы для использования в гнусных целях. Это создает этические проблемы при использовании пользователями таких услуг.
В отчете также отмечается, что за последнее десятилетие количество «инцидентов и противоречий», связанных с ИИ, возросло в 26 раз.
В прошлом месяце миллиардер Илон Маск и соучредитель Apple Стив Возняк были среди тысяч технических экспертов, подписавших письмо, призывающее приостановить обучение систем ИИ, более мощных, чем чат-бот GPT-4 от Open AI, заявив, что «мощные системы ИИ следует разрабатывать только после того, как мы будем уверены, что их влияние будет положительным, а их риски будут управляемыми».
Юнкан (Reuters, AL Jazeera, ABC)
Источник
Комментарий (0)