Le professeur Andrew Ng est l'un des fondateurs de Google Brain. Photo : Coursera . |
Dans un article sur X, Ng appelle cela « l'invite paresseuse » : alimenter l'IA en informations avec peu ou pas de contexte. « Nous ne devrions ajouter des détails à l'invite que lorsque c'est absolument nécessaire », a déclaré le cofondateur de Coursera et de DeepLearning.
Un exemple typique donné par Ng est celui des programmeurs qui, lors du débogage, copient et collent souvent des messages d’erreur entiers — parfois de plusieurs pages — dans des modèles d’IA sans indiquer explicitement ce qu’ils veulent.
« La plupart des grands modèles de langage (LLM) sont suffisamment intelligents pour comprendre ce que vous devez analyser et suggérer des correctifs, même si vous ne le dites pas explicitement », écrit-il.
Selon Ng, il s'agit d'un pas en avant qui montre que LLM va progressivement au-delà de la capacité à répondre à des commandes simples, commençant à comprendre les intentions et le raisonnement de l'utilisateur pour fournir des solutions appropriées - une tendance que poursuivent les entreprises développant des modèles d'IA.
Cependant, l'« incitation paresseuse » ne fonctionne pas toujours. Ng souligne que cette technique ne doit être utilisée que lorsque les utilisateurs peuvent tester rapidement, par exemple via une interface web ou une application d'IA, et que le modèle est capable de déduire l'intention à partir de peu d'informations.
« Si l’IA a besoin de beaucoup de contexte pour répondre en détail, ou ne peut pas reconnaître les erreurs potentielles, alors une simple invite ne sera d’aucune aide », a souligné Ng.
En théorie, l'invite de commande paresseuse permet de gagner du temps et de l'énergie, surtout pour les personnes peu habituées à écrire des commandes détaillées. Cependant, ce n'est pas un raccourci pour tout le monde.
L'utilisateur moyen, peu habitué à penser en termes de compréhension « implicite » de la machine, peut avoir du mal à accepter des invites vagues, ce qui peut entraîner des résultats inattendus. À moins que l'IA ne connaisse le contexte spécifique (comme une conversation précédente) ou que l'utilisateur n'ait l'habitude de répéter et d'ajuster rapidement la requête, cette approche sera efficace.
Parallèlement, pour les programmeurs ou les personnes travaillant beaucoup avec l'IA, raccourcir l'invite permet parfois d'éviter que le modèle ne soit « bruyant » en raison d'instructions trop nombreuses et redondantes. Ng souligne donc qu'il s'agit d'une technique avancée, adaptée à ceux qui maîtrisent déjà les capacités de réponse du modèle.
Source : https://znews.vn/chuyen-gia-ai-prompt-mu-khong-sai-post1543586.html
Comment (0)