
2023年には、ChatGPTのような人工知能モデルが仕事を奪う可能性を何百万人もの人々が懸念している一方で、一部の企業は、これらの新世代のAIチャットボットを活用できる人材を雇うために数十万ドルを支払う用意があります。
ブルームバーグによると、当時のChatGPTの出現により、Prompt Engineerと呼ばれる新しい職業が生まれ、年収は最大335,000ドルになったという。
「AIと話す」
従来のプログラマーとは異なり、エンジニアは文章でプログラミングを提案し、プレーンテキストで書かれたコマンドを AI システムに送信します。AI システムはその説明を実際の作業に変換します。
これらの人々は AI の欠陥を理解していることが多く、それによって AI の力を強化し、単純な入力を真にユニークな結果に変える複雑な戦略を考案することができます。
![]() |
ランス・ジャンク氏はかつて、ChatGPTの使い方を教えるオンラインコースで3万5000ドル近くの収益を上げていた。写真: Gearrice |
「AIを効果的に活用するには、指示を設計するスキルを習得する必要があります。このスキルがなければ、遅かれ早かれキャリアは『破壊』されるでしょう」と、IBMテクノロジー・グループのグローバル教育・人材開発担当バイスプレジデント、リディア・ローガン氏は述べています。
しかし、急速な発展により、AI モデルはユーザーの意図をより良く理解できるようになり、意図が不明瞭な場合でも追加の質問をすることができるようになりました。
さらに、 WSJによると、企業はさまざまな部門の幅広い従業員にコマンドとAIモデルの最適な使用方法をトレーニングしているため、1人の人間がこの専門知識を保持する必要性は低下しています。
具体的には、マイクロソフトが委託した最近の調査で、31カ国の従業員31,000人を対象に、今後12~18ヶ月以内に企業が追加を検討している新しい役割について質問しました。マイクロソフトのAI at Work担当マーケティングディレクター、ジャレッド・スパタロ氏によると、コマンドエンジニアはリストの下から2番目にランクされていました。
一方、トレーナー、データ サイエンティスト、AI セキュリティ エキスパートなどの役割がリストの上位にランクされています。
スパタロ氏は、大規模言語モデルは今では、より優れたインタラクション、対話、コンテキスト認識を可能にするほど進化していると主張している。
例えば、マイクロソフトのAIベースのリサーチツールは、追加の質問をしたり、理解できない点があればユーザーに知らせたり、提供された情報に関するフィードバックを求めたりします。つまり、スパタロ氏は「完璧な文章である必要はない」と述べています。
「盲目」というプロンプトは間違いではない
求人検索プラットフォームIndeedのAI担当副社長ハンナ・カルフーン氏によると、現在、コマンドラインエンジニアの求人広告は非常に少ないという。
ChatGPTのリリースからわずか数か月後の2023年1月、Indeedユーザーによるこの職種の検索数は100万回あたり144回に急増しました。しかし、その後は100万回あたり20~30回程度で落ち着いています。
![]() |
プロンプトエンジニアは、ChatGPTなどのAIツールに質問を作成したり、コマンドを発行したりする役割を担うエンジニアです。写真: Riku AI |
厳しい予算と高まる経済不確実性による需要の減少に加え、企業は近年、全般的に採用に対してより慎重になっている。
Nationwide Insurance、Carhartt Workwear、New York Life Insurance などの企業はいずれも、コマンド エンジニアを雇用したことはなく、より優れたコマンド スキルは現在の従業員全員が訓練で習得できるスキルだと考えていると述べています。
「財務、人事、法務のいずれの部門であっても、私たちはこれを個別の職名ではなく、職名の中の能力として捉えています」とネイションワイドの最高技術責任者ジム・ファウラー氏は語る。
Google Brainの創設者でスタンフォード大学の講師でもあるアンドリュー・ン教授は、ユーザーがAIにリクエスト(プロンプト)を入力する際に、あまり詳細に記述する必要がない場合もあると語った。
Xの投稿で、ン氏はこれを「怠惰なプロンプティング」と呼んでいる。つまり、AIにほとんど、あるいは全く文脈を与えずに情報を与えることだ。「プロンプトに詳細情報を追加するのは、本当に必要な場合のみにすべきだ」と、コーセラとディープラーニングの共同創設者である同氏は述べた。
Ng 氏が挙げる典型的な例は、デバッグ時に、何を望んでいるのかを明示的に述べずに、エラー メッセージ全体 (場合によっては数ページにわたる) を AI モデルにコピーして貼り付けるプログラマーです。
「大規模言語モデル(LLM)のほとんどは、明示的に指示しなくても、分析に必要な内容を理解し、修正を提案できるほど賢い」と彼は書いている。
![]() |
LLMは単純なコマンドへの応答にとどまらず、ユーザーの意図と推論を理解し、適切な解決策を導き出すようになってきています。写真:ブルームバーグ |
Ng 氏によると、これは LLM が徐々に単純なコマンドに応答する能力を超え、ユーザーの意図と推論を理解して適切なソリューションを提供し始めていることを示す前進であり、AI モデルを開発している企業が追求しているトレンドです。
しかし、「怠惰なプロンプティング」は常にうまくいくとは限りません。Ng氏は、この手法は、ユーザーがウェブインターフェースやAIアプリなどを使って迅速にテストでき、モデルがわずかな情報から意図を推測できる場合にのみ使用すべきだと指摘しています。
「AIが詳細に返答するために多くのコンテキストを必要としたり、潜在的なエラーを認識できなかったりする場合、単純なプロンプトでは役に立ちません」とNg氏は強調した。
出典: https://znews.vn/khong-con-ai-can-ky-su-ra-lenh-cho-ai-nua-post1549306.html
コメント (0)