アンドリュー・ン教授はGoogle Brainの創設者の一人です。写真: Coursera |
Xの投稿で、ン氏はこれを「怠惰なプロンプティング」と呼んでいる。つまり、AIにほとんど、あるいは全く文脈を与えずに情報を与えることだ。「プロンプトに詳細情報を追加するのは、本当に必要な場合のみにすべきだ」と、コーセラとディープラーニングの共同創設者である同氏は述べた。
Ng 氏が挙げる典型的な例は、デバッグ時に、何を望んでいるのかを明示的に述べずに、エラー メッセージ全体 (場合によっては数ページにわたる) を AI モデルにコピーして貼り付けるプログラマーです。
「大規模言語モデル(LLM)のほとんどは、明示的に指示しなくても、分析に必要な内容を理解して修正を提案できるほど賢い」と彼は書いている。
Ng 氏によると、これは LLM が徐々に単純なコマンドに応答する能力を超え、ユーザーの意図と推論を理解して適切なソリューションを提供し始めていることを示す前進であり、AI モデルを開発している企業が追求しているトレンドです。
しかし、「怠惰なプロンプティング」は常にうまくいくとは限りません。Ng氏は、この手法は、ユーザーがウェブインターフェースやAIアプリなどを使って迅速にテストでき、モデルがわずかな情報から意図を推測できる場合にのみ使用すべきだと指摘しています。
「AIが詳細に返答するために多くのコンテキストを必要としたり、潜在的なエラーを認識できなかったりする場合、単純なプロンプトでは役に立ちません」とNg氏は強調した。
理論的には、遅延プロンプトは、特に詳細なコマンドの記述に慣れていない人にとっては時間と労力を節約できます。しかし、誰にとっても「近道」ではありません。
平均的なユーザーは、「暗黙的な」機械理解という観点から考えることに慣れていないため、曖昧なプロンプトに苦労し、予期せぬ結果につながる可能性があります。AIが特定のコンテキスト(以前のチャットなど)に精通している場合、またはユーザーがリクエストを繰り返して素早く調整する経験がある場合を除いて、このアプローチは効果的ではありません。
一方、プログラマーやAIを多用する人にとっては、プロンプトを短くすることで、冗長な命令が多すぎてモデルが「ノイズ」になるのを防ぐのに役立つ場合があります。そのため、Ng氏は、これはモデルの応答能力を既に理解している人にとって適切な高度な手法であると強調しています。
出典: https://znews.vn/chuyen-gia-ai-prompt-mu-khong-sai-post1543586.html
コメント (0)