
В 2023 году, пока миллионы людей обеспокоены тем, что модели искусственного интеллекта, такие как ChatGPT, могут отнять у них работу, некоторые компании готовы платить сотни тысяч долларов за найм людей, которые смогут использовать это новое поколение чат-ботов на основе искусственного интеллекта.
По данным Bloomberg , появление ChatGPT в то время привело к появлению новой профессии под названием Prompt Engineer с зарплатой до 335 000 долларов США в год.
«Поговори с ИИ»
В отличие от традиционных программистов, инженеры предлагают программировать прозой, а затем отправляют команды, написанные простым текстом, в систему искусственного интеллекта, которая затем превращает описания в реальную работу.
Эти люди часто понимают недостатки искусственного интеллекта, что позволяет им повышать его мощь и разрабатывать сложные стратегии, позволяющие превращать простые входные данные в действительно уникальные результаты.
![]() |
Лэнс Джанк однажды заработал почти 35 000 долларов на онлайн-курсе по использованию ChatGPT. Фото: Gearrice. |
«Чтобы эффективно использовать ИИ, необходимо овладеть навыком разработки инструкций. Без этого навыка ваша карьера рано или поздно будет „разрушена“», — отметила Лидия Логан, вице-президент по глобальному образованию и развитию персонала в IBM Technology Group.
Однако благодаря быстрому развитию модели ИИ теперь гораздо лучше понимают намерения пользователей и могут даже задавать уточняющие вопросы, если намерение неясно.
Кроме того, по данным WSJ , компании обучают широкий круг сотрудников из разных отделов тому, как наилучшим образом использовать команды и модели ИИ, поэтому все меньше необходимости в том, чтобы один человек обладал этими знаниями.
В частности, в недавнем опросе, проведённом по заказу Microsoft, 31 000 сотрудников в 31 стране были опрошены о новых ролях, которые их компании рассматривают в ближайшие 12–18 месяцев. По словам Джареда Спатаро, директора Microsoft по маркетингу AI at Work, инженеры командного управления заняли предпоследнее место в списке.
Между тем, такие должности, как тренеры, специалисты по обработке данных и эксперты по безопасности ИИ, возглавляют список.
Спатаро утверждает, что крупные языковые модели в настоящее время достаточно развились, чтобы обеспечить лучшее взаимодействие, диалог и понимание контекста.
Например, исследовательский инструмент Microsoft на основе искусственного интеллекта будет задавать уточняющие вопросы, сообщать пользователю, если что-то непонятно, и запрашивать обратную связь по предоставленной информации. Другими словами, говорит Спатаро, «вам не обязательно иметь идеальные предложения».
Подсказка «слепой» не является ошибочной
По словам Ханны Кэлхун, вице-президента по ИИ на платформе поиска работы Indeed, в настоящее время предложений о работе для инженеров командной строки очень мало.
В январе 2023 года, всего через несколько месяцев после запуска ChatGPT, количество поисковых запросов пользователей Indeed по этой роли резко возросло до 144 на миллион запросов. Однако с тех пор этот показатель стабилизировался на уровне 20–30 на миллион запросов.
![]() |
Инженеры-информаторы — это инженеры, которым поручено писать вопросы или отдавать команды инструментам искусственного интеллекта, таким как ChatGPT. Фото: Riku AI. |
Помимо снижения спроса, вызванного жесткими бюджетами и растущей экономической неопределенностью, в последние годы компании также стали гораздо осторожнее относиться к найму сотрудников в целом.
Такие компании, как Nationwide Insurance, Carhartt Workwear и New York Life Insurance, заявляют, что никогда не нанимали инженеров по командованию, а вместо этого рассматривают развитие навыков командования как навык, которому можно обучить всех нынешних сотрудников.
«Независимо от того, работаете ли вы в сфере финансов, управления персоналом или в юридической сфере, мы рассматриваем это как возможность в рамках должности, а не как отдельную должность», — говорит Джим Фаулер, главный технический директор Nationwide.
Профессор Эндрю Нг, основатель Google Brain и преподаватель Стэнфордского университета, отметил, что иногда пользователям не нужно вдаваться в подробности при вводе запросов (подсказок) для ИИ.
В публикации на X Нг называет это « ленивыми подсказками » — передачей информации ИИ практически без контекста. «Мы должны добавлять подробности в подсказку только тогда, когда это действительно необходимо», — сказал соучредитель Coursera и DeepLearning.
Типичный пример, который приводит Нг, — это программисты, которые при отладке часто копируют и вставляют целые сообщения об ошибках — иногда длиной в несколько страниц — в модели ИИ, не указывая явно, чего они хотят.
«Большинство больших языковых моделей (LLM) достаточно умны, чтобы понимать, что вам нужно проанализировать, и предлагать исправления, даже если вы не говорите об этом прямо», — пишет он.
![]() |
Магистр права выходит за рамки простого реагирования на команды, начиная понимать намерения и мотивы пользователя, чтобы предлагать подходящие решения. Фото: Bloomberg. |
По словам Нг, это шаг вперед, показывающий, что LLM постепенно выходит за рамки способности реагировать на простые команды, начиная понимать намерения и логику пользователя, чтобы предлагать соответствующие решения — тенденция, которой следуют компании, разрабатывающие модели ИИ.
Однако «ленивые подсказки» работают не всегда. Нг отмечает, что этот метод следует использовать только в тех случаях, когда пользователи могут быстро протестировать продукт, например, через веб-интерфейс или приложение ИИ, а модель способна определить намерение пользователя по небольшому объёму информации.
«Если ИИ требуется большой объем контекста для подробного ответа или он не может распознать потенциальные ошибки, то простая подсказка не поможет», — подчеркнул Нг.
Источник: https://znews.vn/khong-con-ai-can-ky-su-ra-lenh-cho-ai-nua-post1549306.html
Комментарий (0)