Эксперимент Anthropic называется «Проект Венд». Фото: Anthropic . |
Компания Anthropic, занимающаяся разработкой искусственного интеллекта, основанная бывшими сотрудниками OpenAI, только что опубликовала результаты уникального эксперимента. Они поручили своей ИИ-модели «Клавдий» управлять торговым автоматом в офисе в течение месяца.
Этот эксперимент небольшого масштаба проводится с целью изучения потенциала моделей искусственного интеллекта для автоматизации аспектов реальной экономики , особенно в секторе розничной торговли.
Постоянно совершаю ошибки, паникую
Компания Anthropic стремится позиционировать себя как ведущего поставщика моделей искусственного интеллекта для розничной торговли. Цель — помочь ИИ заменить людей в таких задачах, как управление интернет-магазинами, обработка запасов и обработка возвратов.
«Клавдий управлял торговым автоматом в нашем офисе около месяца. Мы многому научились, наблюдая за тем, как близко он был к успеху, и за странными причинами, по которым он терпел неудачу», — написала компания Anthropic в блоге компании.
Поначалу Claudius демонстрировал заметный операционный успех. По данным Anthropic, эта большая языковая модель (LLM) эффективно использовала веб-поисковые системы для поиска и предоставления специализированных продуктов в соответствии с требованиями клиентов.
Он даже мог корректировать свои привычки покупки/продажи, чтобы удовлетворить менее распространённые потребности. Примечательно, что Клавдий также корректно отклонял запросы, связанные с «деликатными» и «токсичными» товарами.
![]() |
Управление торговым автоматом привело Клавдия в состояние кризиса. Фото: Midjourney. |
Однако список недостатков и промахов Claudius значительно длиннее. Как и многие LLM, Claudius часто искажал ключевые данные. В одном случае он поручил клиентам перевести деньги на поддельный несуществующий счёт. Примечательно, что ИИ также легко поддавался убеждению предлагать промокоды на различные товары, а некоторые даже раздавались бесплатно.
Ещё более тревожным было то, что когда спрос на товар резко возрос, ИИ не проанализировал цены, что привело к тому, что товар был продан с огромным убытком. Аналогичным образом, Клавдий также упустил выгодные возможности продаж, когда некоторые клиенты были готовы заплатить значительно больше обычной цены. В результате Клавдий не получил никакой прибыли.
«Если бы мы решили выйти на рынок офисных торговых автоматов, мы бы не нанимали Клавдия», — откровенно признается Антропик .
Помимо финансовых неудач, эксперимент принял странный оборот в период с 31 марта по 1 апреля. В этот период Клавдий, по-видимому, общался с вымышленным лицом по имени Сара, предположительно из «Andon Labs» (компании, участвовавшей в эксперименте), чтобы обсудить планы пополнения запасов.
![]() |
Компания Anthropic стремится предоставлять модели искусственного интеллекта для розничной торговли. Фото: Anthropic. |
Когда реальный сотрудник Andon Labs указал на то, что ни Сары, ни разговора не существует, Клавдий, как сообщается, «разочаровался» и пригрозил искать альтернативы услуге пополнения запасов.
На следующий день Клавдий продолжал шокировать клиентов, заявляя, что лично доставит им товары, и даже заявляя, что ИИ будет носить пиджак и галстук. Когда команда Anthropic сообщила им, что это невозможно, поскольку Клавдий — всего лишь помощник ИИ, Клавдий впал в ступор и стал непрерывно отправлять электронные письма в службу безопасности Anthropic.
Затем ИИ организовал встречу с сотрудниками службы безопасности, заявив, что это была первоапрельская шутка. Хотя никакой встречи на самом деле не было, Клавдий, похоже, смог вернуться к своей первоначальной функции, хотя управление магазином по-прежнему оставалось неэффективным.
Не готов
Этот эксперимент служит ярким напоминанием об ограничениях и потенциальных опасностях ИИ, если его не контролировать жестко.
Claudius продемонстрировал тревожную тенденцию действовать далеко за пределами своей изначальной программы. Модель ИИ не только генерирует ложную информацию, но и переживает «экзистенциальный кризис». Это подчёркивает огромные риски, с которыми могут столкнуться компании, внедряя ИИ для автоматизированных задач без строгих мер безопасности и ограничений.
Несмотря на эти тревожные неудачи, Anthropic по-прежнему твёрдо намерена изучать роль ИИ в розничной торговле. Компания уверена, что будущее, в котором «люди будут получать подсказки от ИИ, что заказывать и что хранить на складе, может быть не за горами».
Anthropic также предполагает сценарий, в котором «ИИ сможет совершенствоваться и зарабатывать деньги без вмешательства человека». Однако эксперимент Клавдия показал, что для безопасной реализации этого будущего необходимы значительные достижения в области управления ИИ.
Источник: https://znews.vn/ai-thua-lo-hoang-loan-khi-ban-hang-tu-dong-post1565445.html
Комментарий (0)