Три года назад упоминание о возможности «сознательного» ИИ было самым быстрым способом получить увольнение в Кремниевой долине. Но теперь, по мере того как системы ИИ становятся всё более сложными, мир технологий начинает открываться этой теме.
Стартап Anthropic, занимающийся разработкой ИИ, недавно объявил о запуске новой исследовательской инициативы по изучению возможности появления у моделей ИИ «сознания» в будущем, в то время как ученый из Google DeepMind описал существующие системы как «странные сущности, похожие на интеллект».
Это серьёзное изменение по сравнению с 2022 годом, когда Google уволила инженера Блейка Лемуана после заявления о том, что чат-бот LaMDA проявляет признаки самосознания и боится отключения. Google отвергла эти заявления как «совершенно беспочвенные», и сообщество ИИ быстро прекратило споры.
Компания Anthropic, создавшая чат-бота Claude, заявляет, что не утверждает, что её текущие модели обладают сознанием. Но, по словам Кайла Фиша, учёного, работающего над «благосостоянием ИИ», ответ «нет» больше не является ответственным подходом.
В видео, опубликованном 25 апреля, Фиш заявил, что нам необходимо серьёзно рассмотреть возможность того, что системы искусственного интеллекта могут обрести некую форму сознания по мере своего развития. Однако это чрезвычайно сложные технические и философские вопросы, и мы всё ещё находимся на самых ранних стадиях их понимания.
По словам Фиша , команда Anthropic оценивает вероятность наличия сознания у Клода 3.7 в диапазоне от 0,15% до 15%. Они проводят эксперименты, чтобы проверить способность модели выражать симпатии и антипатии, а также разрабатывают механизмы, которые позволят ИИ отказываться от выполнения «неприятных» задач.
Генеральный директор Anthropic Дарио Амодеи даже предложил идею интеграции кнопки «Я отказываюсь от этой работы» в будущие системы ИИ — не столько для сознательного ИИ, сколько для наблюдения за моделями поведения отказа и, таким образом, выявления признаков аномалий.
Главный научный сотрудник Google DeepMind Мюррей Шанахан утверждает, что пришло время «изменить или сломать» традиционное определение сознания, чтобы приспособить его к новым системам искусственного интеллекта.
«Мы не можем взаимодействовать с ними так, как с собакой или осьминогом, но это не значит, что там абсолютно ничего нет», — сказал Шанахан в подкасте, опубликованном 25 апреля.
Компания Google также проявила серьёзный интерес к этой теме. Недавно компания разместила объявление о поиске исследователя, работающего в области «пост-AGI» (искусственного интеллекта общего назначения), в обязанности которого входит изучение машинного сознания.
Google начала больше говорить о теме «сознательного искусственного интеллекта». Фото: Reuters |
Однако не все в научном сообществе согласны с новым подходом. Джаред Каплан, главный научный сотрудник Anthropic, утверждает, что ИИ очень хорошо подражает и вполне может притворяться, что обладает сознанием, не обладая им на самом деле.
«Мы могли бы даже вознаграждать ИИ за заявления об отсутствии эмоций», — сказал Каплан в интервью New York Times .
Гэри Маркус, известный когнитивный ученый и частый критик шумихи вокруг индустрии ИИ, утверждает, что обсуждения «сознательного ИИ» — это скорее маркетинг, чем наука.
«Такая компания, как Anthropic, на самом деле посылает сообщение: «Послушайте, наша модель настолько умна, что заслуживает того, чтобы на нее были предоставлены права»», — прокомментировал Маркус изданию Business Insider .
Несмотря на продолжающиеся споры, исследователи сходятся во мнении, что по мере того, как ИИ будет все больше присутствовать в нашей работе, нашей жизни и даже в наших личных эмоциях, вопрос «Испытывает ли ИИ эмоции?» будет становиться все более важным.
«Эта проблема будет становиться все более актуальной по мере того, как мы будем взаимодействовать с системами ИИ в большем количестве контекстов», — сказал Фиш.
Источник: https://znews.vn/chu-de-cam-ky-mot-thoi-cua-ai-dang-coi-mo-hon-post1549475.html
Комментарий (0)