
2023年には、ChatGPTのような人工知能モデルが仕事を奪う可能性を何百万人もの人々が懸念している一方で、一部の企業は、これらの新世代のAIチャットボットを活用できる人材を採用するために数十万ドルを支払う用意があります。
ブルームバーグによると、当時のChatGPTの出現により、Prompt Engineerと呼ばれる新しい職業が生まれ、年収は最大335,000ドルになったという。
「AIと話す」
従来のプログラマーとは異なり、エンジニアは散文でプログラミングを提案し、プレーンテキストで書かれたコマンドを AI システムに送信し、AI システムがその説明を実際の作業に変換します。
これらの人々は AI の欠陥を理解していることが多く、それによって AI の力を強化し、単純な入力を真にユニークな結果に変える複雑な戦略を考案することができます。
![]() |
ランス・ジャンク氏はかつて、ChatGPTの使い方を教えるオンラインコースで3万5000ドル近くの収益を上げていた。写真: Gearrice |
「AIを効果的に活用するには、コマンド設計のスキルを習得する必要があります。このスキルがなければ、遅かれ早かれキャリアは『破壊』されるでしょう」と、IBMテクノロジー・グループのグローバル教育・人材開発担当バイスプレジデント、リディア・ローガン氏は述べています。
しかし、急速な発展により、AI モデルはユーザーの意図をより良く理解できるようになり、意図が不明瞭な場合でも追加の質問をすることができるようになりました。
さらに、 WSJによると、企業はさまざまな部門の幅広い従業員にコマンドと AI モデルの最適な使用方法をトレーニングしているため、1 人の人間がこの専門知識を保持する必要性は低下しています。
具体的には、マイクロソフトが委託した最近の調査で、31カ国の従業員31,000人を対象に、今後12~18ヶ月で会社が追加を検討している新しい役割について質問しました。マイクロソフトのAI at Work担当マーケティングディレクター、ジャレッド・スパタロ氏によると、コマンドエンジニアはリストの下から2番目でした。
一方、トレーナー、データ サイエンティスト、AI セキュリティ エキスパートなどの役割がリストの上位にランクされています。
スパタロ氏は、大規模言語モデルは今では、より優れたインタラクション、対話、コンテキスト認識を可能にするほど進化していると主張している。
例えば、マイクロソフトのAIベースのリサーチツールは、追加の質問をしたり、理解できない点があればユーザーに知らせたり、提供された情報に関するフィードバックを求めたりします。つまり、スパタロ氏は「完璧な文章である必要はない」と述べています。
「盲目」というプロンプトは間違いではない
求人検索プラットフォームIndeedのAI担当副社長ハンナ・カルフーン氏によると、現在、コマンドエンジニアの求人は非常に少ないという。
ChatGPTのリリースからわずか数か月後の2023年1月、Indeedにおけるこの職種のユーザー検索数は、検索100万回あたり144回にまで急増しました。しかし、それ以降は検索100万回あたり20~30回程度で安定しています。
![]() |
プロンプトエンジニアは、ChatGPTのようなAIツールに質問を作成したり、コマンドを与えたりする役割を担うエンジニアです。写真: Riku AI。 |
需要の減少に加え、厳しい予算と高まる経済の不確実性によって圧迫され、企業は近年、全般的に採用に対してより慎重になっている。
ネイションワイド・インシュアランス、カーハート・ワークウェア、ニューヨーク・ライフ・インシュアランスなどの企業はいずれも、これまで指揮官エンジニアを雇用したことはなく、指揮スキルの向上は現従業員全員が訓練で習得できるスキルだと考えていると述べている。
「財務、人事、法務のいずれの部門であっても、私たちはこれを個別の職名ではなく、職名内の能力として捉えています」とネイションワイドの最高技術責任者、ジム・ファウラー氏は語る。
Google Brainの創設者でスタンフォード大学の講師でもあるアンドリュー・ン教授は、ユーザーがAIにリクエスト(プロンプト)を入力する際に、あまり詳細に記述する必要がない場合もあると語った。
Xの投稿で、ン氏はこの手法を「怠惰なプロンプティング」と呼んでいる。つまり、AIにほとんど文脈を与えず、具体的な指示も与えずに情報を入力する手法だ。「プロンプトに詳細を追加するのは、本当に必要な場合のみにすべきだ」と、コーセラとディープラーニングの共同創設者である同氏は述べた。
Ng 氏は、プログラマーがデバッグを行う典型的な例を挙げ、何を望んでいるのかを明示的に述べずに、エラー メッセージ全体 (場合によっては数ページにわたる) を AI モデルにコピーして貼り付けることが多いと指摘します。
「大規模言語モデル(LLM)のほとんどは、明示的に指示しなくても、分析に必要な内容を理解し、修正を提案できるほど賢い」と彼は書いている。
![]() |
LLMは単純なコマンドへの応答にとどまらず、ユーザーの意図と推論を理解し、適切な解決策を提示し始めています。写真:ブルームバーグ |
Ng 氏によると、これは LLM が徐々に単純なコマンドに応答する能力を超え、ユーザーの意図と推論を理解して適切な解決策を見つけ出すようになっていることを示す前進であり、AI モデルを開発している企業が追求しているトレンドです。
しかし、「怠惰なプロンプティング」は常にうまくいくとは限りません。Ng氏は、この手法は、ユーザーがウェブインターフェースやAIアプリなどを使って迅速にテストでき、モデルがわずかな情報から意図を推測できる場合にのみ使用すべきだと指摘しています。
「AIが詳細に回答するために多くのコンテキストを必要としたり、潜在的なエラーを認識できなかったりする場合、単純なプロンプトでは役に立ちません」とン氏は強調した。
出典: https://znews.vn/khong-con-ai-can-ky-su-ra-lenh-cho-ai-nua-post1549306.html













コメント (0)