Три года назад упоминание о возможности «сознательного» ИИ было самым быстрым способом получить увольнение в Кремниевой долине. Но теперь, когда системы ИИ становятся все более сложными, мир технологий начинает открываться для этой темы.
Стартап Anthropic, занимающийся разработкой искусственного интеллекта, недавно объявил о запуске новой исследовательской инициативы по изучению возможности появления у моделей искусственного интеллекта «сознания» в будущем, в то время как ученый из Google DeepMind описал существующие системы как «странные сущности, похожие на интеллект».
Это большое изменение по сравнению с 2022 годом, когда Google уволил инженера Блейка Лемуана после того, как он заявил, что чат-бот LaMDA проявляет признаки самосознания и боится отключения. Google отклонил эти заявления как «совершенно беспочвенные», и сообщество ИИ быстро прекратило дебаты.
Anthropic, компания, стоящая за чат-ботом Claude, говорит, что не утверждает, что ее текущие модели сознательны. Но предположение «нет» больше не является ответственным подходом, говорит Кайл Фиш, ученый, работающий над «благосостоянием ИИ».
В видео , опубликованном 25 апреля, Фиш утверждал, что нам нужно серьезно рассмотреть возможность того, что системы ИИ могут достичь некоторой формы сознания по мере своего развития. Однако это чрезвычайно сложные технические и философские вопросы, и мы все еще находимся на самых ранних стадиях их понимания.
По словам Фиша , команда Anthropic оценивает вероятность того, что Claude 3.7 обладает сознанием, в пределах от 0,15% до 15%. Они проводят эксперименты, чтобы проверить способность модели выражать симпатии и антипатии, а также разрабатывают механизмы, которые позволят ИИ отказаться от выполнения «неприятных» задач.
Генеральный директор Anthropic Дарио Амодеи даже предложил идею интеграции кнопки «Я отказываюсь от этой работы» в будущие системы ИИ — не столько для сознательного ИИ, сколько для наблюдения за моделями поведения отказа и, таким образом, выявления признаков аномалий.
Главный научный сотрудник Google DeepMind Мюррей Шанахан утверждает, что пришло время «изменить или сломать» традиционное определение сознания, чтобы приспособить его к новым системам искусственного интеллекта.
«Мы не можем взаимодействовать с ними так, как с собакой или осьминогом, но это не значит, что там совсем ничего нет», — сказал Шанахан в подкасте, опубликованном 25 апреля.
Google также проявила серьезный интерес к теме. Недавно компания разместила объявление о поиске исследователя «пост-AGI» (искусственный общий интеллект), в обязанности которого входит изучение машинного сознания.
Google начал больше раскрывать тему «сознательного ИИ». Фото: Reuters |
Однако не все в научном сообществе согласны с новым подходом. Джаред Каплан, главный научный сотрудник Anthropic, утверждает, что ИИ очень хорош в мимикрии и вполне может притворяться, что обладает сознанием, не имея его на самом деле.
«Мы могли бы даже вознаградить ИИ за утверждение об отсутствии эмоций», — сказал Каплан в интервью New York Times .
Гэри Маркус, известный когнитивный ученый и частый критик шумихи в индустрии ИИ, утверждает, что обсуждения «сознательного ИИ» — это скорее маркетинг, чем наука.
«Такая компания, как Anthropic, на самом деле посылает сообщение: «Послушайте, наша модель настолько умна, что заслуживает прав»», — прокомментировал Маркус изданию Business Insider .
Несмотря на продолжающиеся дебаты, исследователи сходятся во мнении, что по мере того, как ИИ будет все больше присутствовать в нашей работе, нашей жизни и даже в наших личных эмоциях, вопрос «Испытывает ли ИИ эмоции?» будет становиться все более важным.
«Эта проблема будет становиться все более актуальной по мере того, как мы будем взаимодействовать с системами ИИ в новых контекстах», — сказал Фиш.
Источник: https://znews.vn/chu-de-cam-ky-mot-thoi-cua-ai-dang-coi-mo-hon-post1549475.html
Комментарий (0)