
En 2023, alors que des millions de personnes s'inquiètent de la possibilité que des modèles d'intelligence artificielle comme ChatGPT leur prennent leur emploi, certaines entreprises sont prêtes à débourser des centaines de milliers de dollars pour recruter des personnes capables d'exploiter cette nouvelle génération de chatbots IA.
Selon Bloomberg , l'émergence de ChatGPT à cette époque a créé une nouvelle profession appelée Ingénieur Réactif, avec un salaire pouvant atteindre 335 000 USD par an.
« Parlez à l'IA »
Contrairement aux programmeurs traditionnels, les ingénieurs proposent une programmation sous forme de texte, puis envoient des commandes écrites en clair au système d'IA, qui transforme ensuite ces descriptions en travail concret.
Ces personnes comprennent souvent les failles de l'IA, ce qui leur permet d'en accroître la puissance et d'élaborer des stratégies complexes pour transformer des données simples en résultats véritablement uniques.
![]() |
Lance Junck a un jour engrangé près de 35 000 $ de revenus grâce à un cours en ligne enseignant comment utiliser ChatGPT. Photo : Gearrice. |
« Pour utiliser efficacement l’IA, il est indispensable de maîtriser la conception des systèmes de commande. Sans cette compétence, votre carrière sera tôt ou tard compromise », a déclaré Lydia Logan, vice-présidente de la formation mondiale et du développement des ressources humaines chez IBM Technology Group.
Cependant, grâce à leur développement rapide, les modèles d'IA sont désormais bien meilleurs pour comprendre les intentions des utilisateurs et peuvent même poser des questions complémentaires si l'intention n'est pas claire.
De plus, selon le WSJ , les entreprises forment un grand nombre d'employés de différents services à l'utilisation optimale des commandes et des modèles d'IA, ce qui réduit le besoin qu'une seule personne possède cette expertise.
Dans le cadre d'une récente enquête commandée par Microsoft, 31 000 employés répartis dans 31 pays ont été interrogés sur les nouveaux rôles que leur entreprise envisage de créer au cours des 12 à 18 prochains mois. Selon Jared Spataro, directeur marketing de Microsoft pour l'IA au travail, le poste d'ingénieur de commandement figurait en avant-dernière position de la liste.
Par ailleurs, les rôles de formateurs, de scientifiques des données et d'experts en sécurité de l'IA figurent en tête de liste.
Spataro soutient que les grands modèles de langage ont désormais suffisamment évolué pour permettre une meilleure interaction, un meilleur dialogue et une meilleure prise en compte du contexte.
Par exemple, l'outil de recherche de Microsoft basé sur l'IA posera des questions complémentaires, signalera à l'utilisateur ses incompréhensions et sollicitera son avis sur les informations fournies. Autrement dit, comme l'explique Spataro, « il n'est pas nécessaire d'écrire des phrases parfaites ».
L'invite « aveugle » n'est pas fausse
Il y a très peu d'offres d'emploi pour les ingénieurs de commandement en ce moment, selon Hannah Calhoon, vice-présidente de l'IA chez Indeed, une plateforme de recherche d'emploi.
En janvier 2023, quelques mois seulement après le lancement de ChatGPT, le nombre de recherches d'utilisateurs pour ce poste sur Indeed a atteint un pic de 144 pour un million de recherches. Cependant, depuis, ce nombre s'est stabilisé autour de 20 à 30 pour un million de recherches.
![]() |
Les ingénieurs en réponse aux questions sont des ingénieurs chargés de rédiger des questions ou de donner des instructions aux outils d'IA comme ChatGPT. Photo : Riku AI. |
Outre la baisse de la demande, comprimée par des budgets serrés et une incertitude économique croissante, les entreprises se sont également montrées beaucoup plus prudentes en matière d'embauche en général ces dernières années.
Des entreprises comme Nationwide Insurance, Carhartt Workwear et New York Life Insurance affirment toutes n'avoir jamais embauché d'ingénieurs de commandement, considérant plutôt que de meilleures compétences en commandement sont une compétence que tous les employés actuels peuvent acquérir par la formation.
« Que vous travailliez dans la finance, les RH ou le droit, nous considérons cela comme une compétence inhérente à un poste, et non comme un poste distinct », explique Jim Fowler, directeur de la technologie chez Nationwide.
Le professeur Andrew Ng, fondateur de Google Brain et maître de conférences à l'université de Stanford, a déclaré que les utilisateurs n'ont parfois pas besoin d'être trop précis lorsqu'ils saisissent des requêtes (invites) pour l'IA.
Dans un article publié sur X, M. Ng qualifie cette méthode de « saisie paresseuse » , c’est-à-dire le fait de fournir des informations à l’IA avec peu de contexte ou sans instructions spécifiques. « Nous ne devrions ajouter des détails à la demande que lorsque cela est absolument nécessaire », a déclaré le cofondateur de Coursera et de DeepLearning.
Ng donne un exemple typique de programmeurs en train de déboguer, qui copient et collent souvent des messages d'erreur entiers – parfois longs de plusieurs pages – dans des modèles d'IA sans indiquer explicitement ce qu'ils veulent.
« La plupart des grands modèles de langage (LLM) sont suffisamment intelligents pour comprendre ce que vous voulez qu'ils analysent et pour suggérer des corrections, même si vous ne le dites pas explicitement », écrit-il.
![]() |
LLM ne se contente plus de répondre à de simples commandes ; l’entreprise commence à comprendre l’intention et le raisonnement de l’utilisateur afin de proposer des solutions adaptées. Photo : Bloomberg. |
Selon Ng, il s'agit d'un pas en avant qui montre que LLM dépasse progressivement la simple capacité à répondre à des commandes simples, commençant à comprendre les intentions et le raisonnement de l'utilisateur pour proposer des solutions appropriées - une tendance que suivent les entreprises développant des modèles d'IA.
Cependant, cette méthode de « suggestion simplifiée » n’est pas toujours efficace. Ng souligne qu’elle ne devrait être utilisée que lorsque les utilisateurs peuvent effectuer des tests rapides, par exemple via une interface web ou une application d’IA, et que le modèle est capable de déduire l’intention à partir de peu d’informations.
« Si l'IA a besoin de beaucoup de contexte pour répondre en détail, ou si elle ne peut pas reconnaître les erreurs potentielles, alors une simple invite ne sera d'aucune utilité », a souligné M. Ng.
Source : https://znews.vn/khong-con-ai-can-ky-su-ra-lenh-cho-ai-nua-post1549306.html













Comment (0)