
2023年には、ChatGPTのような人工知能モデルが仕事を奪う可能性を何百万人もの人々が懸念している一方で、一部の企業は、これらの新世代のAIチャットボットを活用できる人材を雇うために数十万ドルを支払う用意があります。
ブルームバーグによると、当時のChatGPTの出現により、Prompt Engineerと呼ばれる新しい職業が生まれ、年収は最大335,000ドルになったという。
「AIと話す」
従来のプログラマーとは異なり、エンジニアは散文の段落でプログラミングを提案し、プレーンテキストで書かれたコマンドを AI システムに送信します。システムはそれらの説明的な言葉を実際の仕事に変換します。
これらの人々は AI の欠陥を理解していることが多く、それによって AI の力を強化し、単純な入力を真にユニークな結果に変える複雑な戦略を考案することができます。
![]() |
ランス・ジャンク氏はかつて、ChatGPT の使い方を教えるオンライン コースを作成して、約35,000 ドルの収益を上げました。写真: Gearrice。 |
AIを効果的に使用するには、コマンド設計スキルを習得する必要があります。 「このスキルを習得しなければ、遅かれ早かれキャリアは『破壊』されるでしょう」とIBMテクノロジー・グループのグローバル教育・人材開発担当副社長リディア・ローガン氏は語る。
しかし、急速な発展により、AI モデルはユーザーの意図をより良く理解できるようになり、意図が不明瞭な場合でも追加の質問をすることができるようになりました。
さらに、 WSJによると、企業はさまざまな部門の幅広い従業員にコマンドとAIモデルの最適な使用方法をトレーニングしているため、1人の人間がこの専門知識を保持する必要性は低下しています。
具体的には、マイクロソフトが委託した最近の調査で、31 か国の 31,000 人の従業員に対して、今後 12 ~ 18 か月以内に会社が追加を検討している新しい役割について質問しました。マイクロソフトの AI at Work 担当マーケティング ディレクターの Jared Spataro 氏によると、コマンド エンジニアはリストの下から 2 番目です。
一方、トレーナー、データ サイエンティスト、AI セキュリティ エキスパートなどの役割がリストの上位にランクされています。
スパタロ氏は、大規模言語モデルは今では、より優れたインタラクション、対話、コンテキスト認識を可能にするほど進化していると主張している。
たとえば、Microsoft の AI ベースのリサーチ ツールは、追加の質問をしたり、ユーザーが理解できない点があればそれを知らせたり、提供された情報に関するフィードバックを求めたりします。言い換えれば、「完璧な指揮をとる必要はない」とスパタロ氏は主張する。
「盲目」というプロンプトは間違いではない
求人検索プラットフォームIndeedのAI担当副社長ハンナ・カルフーン氏によると、現在、コマンドラインエンジニアの求人広告は非常に少ないという。
ChatGPT がリリースされてからわずか数か月後の 2023 年 1 月、Indeed のこの職種に関するユーザー検索が 100 万回あたり 144 回に急増しました。しかし、それ以降、この数値は 100 万回の検索あたり 20 ~ 30 件程度で安定しています。
![]() |
プロンプト エンジニアは、ChatGPT などの AI ツールに質問を作成したりコマンドを発行したりすることを仕事とするエンジニアです。写真: Riku AI。 |
厳しい予算と高まる経済不確実性による需要の減少に加え、企業は近年、全般的に採用に対してより慎重になっている。
それに応じて、ネイションワイド保険、作業服ブランドのカーハート、保険会社のニューヨークライフなどの企業はいずれも、コマンドエンジニアを雇用したことはないと述べています。むしろ、彼らは、より優れた指揮スキルを磨くことは、現在の従業員全員が訓練できる専門分野であると考えています。
「財務、人事、法務のいずれの部門であっても、私たちはこれを別個の職種ではなく、職種内の能力として捉えています」とネイションワイドの最高技術責任者ジム・ファウラー氏は語る。
Google Brainの創設者でスタンフォード大学の講師でもあるアンドリュー・ン教授は、ユーザーがAIにリクエスト(プロンプト)を入力する際に、あまり詳細に記述する必要がない場合もあると述べた。
Xの投稿で、ン氏はこの手法を「怠惰なプロンプト」と呼んでいます。つまり、ほとんど文脈を与えず、具体的な指示もなしにAIに情報を入力するというものです。 「本当に必要な場合のみ、プロンプトに詳細を追加すべきだ」と、CourseraとDeepLearningの共同創設者は語った。
Ng 氏が挙げる典型的な例は、デバッグを行うプログラマーです。多くの場合、リクエストを明示的に示さずに、エラー メッセージ全体 (場合によっては数ページにわたる) を AI モデルにコピーして貼り付けます。
「大規模言語モデル(LLM)のほとんどは、明示的に指示しなくても、分析に必要な内容を理解して修正を提案できるほど賢い」と彼は書いている。
![]() |
LLM は単にコマンドに応答するだけでなく、ユーザーの意図と推論を理解して適切なソリューションを提供するようになりました。写真:ブルームバーグ。 |
Ng 氏によると、これは LLM が徐々に単純なコマンドに応答する能力を超え、ユーザーの意図と推論を理解して適切なソリューションを提供し始めていることを示す前進であり、AI モデルを開発している企業が追求しているトレンドです。
しかし、「怠惰なプロンプト」は常に効果的であるとは限りません。 Ng 氏は、この手法は、AI の Web インターフェースやアプリなどを通じてユーザーが迅速にテストでき、モデルが少量の情報から意図を推測できる場合にのみ使用すべきだと指摘しています。
「AIが詳細に返答するために多くのコンテキストを必要としたり、潜在的なエラーを認識できなかったりする場合、単純なプロンプトでは役に立ちません」とNg氏は強調した。
出典: https://znews.vn/khong-con-ai-can-ky-su-ra-lenh-cho-ai-nua-post1549306.html
コメント (0)