
Auparavant, les inquiétudes concernant la « dégradation des compétences » due à l’IA relevaient surtout de la spéculation. Désormais, les premières données empiriques commencent à émerger. Bien que préliminaires, ces signaux sont suffisamment probants pour justifier l’attention de la communauté médicale.
Signes de déclin des compétences lors d'une coloscopie assistée par IA.
Une étude observationnelle de 2025 publiée dans The Lancet Gastroenterology & Hepatology a examiné les systèmes d'IA utilisés pour détecter les adénomes, des lésions bénignes du tube digestif qui peuvent évoluer en cancer.
Les résultats ont montré que les endoscopistes utilisant régulièrement l'IA présentaient un taux de détection des adénomes significativement plus faible (de 29 % à 22 %) lors d'examens réalisés sans assistance de l'IA. Ceci suggère qu'une exposition prolongée à l'IA pourrait avoir un impact négatif sur les performances cliniques mesurables.
« Le piège cognitif » : Quand les humains cessent de penser
La psychologie cognitive offre une explication à ce phénomène. De nombreuses études ont démontré une corrélation inverse entre l'utilisation fréquente de l'IA et les capacités de pensée critique. Le mécanisme sous-jacent est appelé déchargement cognitif.
Lorsque les individus dépendent trop des outils, leur cerveau réduit ses efforts d'analyse indépendante.
Le problème ne réside pas dans l'IA elle-même, mais dans l'acceptation passive, lorsque les humains cessent de poser des questions.
Le risque de devenir dépendant avant même de maîtriser la compétence.
Si la dépendance passive représente un risque pour tous les médecins, l'impact le plus dangereux pourrait concerner ceux en phase de formation.
Une étude sur le diagnostic mammographique a montré que la capacité à détecter les erreurs générées par l'IA dépend fortement de l'expérience. Dans un scénario simulé où l'IA a formulé des suggestions erronées, le taux d'interprétation correcte des clichés n'était que de 20 % dans le groupe le moins expérimenté, de 25 % dans le groupe moyen et de 46 % dans le groupe très expérimenté.
Cela soulève des inquiétudes quant au phénomène de « non-acquisition de compétences », c'est-à-dire l'absence de véritable développement des compétences. Si les internes s'appuient sur des diagnostics différentiels générés par l'IA avant d'être confrontés eux-mêmes à l'ambiguïté clinique, ils risquent de ne jamais acquérir de solides bases en matière de raisonnement diagnostique.
Ce n'est pas que vous ayez perdu vos compétences existantes, mais plutôt que vous n'ayez jamais atteint la maîtrise dès le départ.
L'IA diminue-t-elle les compétences ou accélère-t-elle leur évolution ?
Le débat se réduit souvent à une vision dualiste : soit l’IA rend les médecins « dégénérés », soit elle les transforme en « surhommes ». La réalité est bien plus complexe.
La médecine évolue constamment, tout comme ses outils : stéthoscopes, scanners, dossiers médicaux électroniques. Chaque technologie modifie les processus et exige un niveau de compréhension accru. Personne ne prétendrait que le perfectionnement de l’imagerie diagnostique a rendu les médecins « inactifs », même s’il déplace l’attention de l’examen physique détaillé vers l’interprétation des images et la synthèse clinique.
Par conséquent, comprendre l'IA — plutôt que de l'éviter — pourrait bien être le facteur de protection le plus important.
Que peut-on faire pour réduire le risque de dégradation des compétences ?
Plusieurs stratégies pédagogiques sont en cours d'élaboration. Par exemple, exiger des médecins, notamment en formation, qu'ils réalisent une évaluation indépendante avant de prendre en compte les suggestions de l'IA. Toutefois, la mise en œuvre pourrait s'avérer complexe à mesure que l'IA se généralise et devient plus accessible.
Une autre approche consiste à développer une IA interprétative. Au lieu de simplement signaler une zone pulmonaire comme « suspectée de malignité », le système pourrait afficher une carte thermique indiquant les pixels qui influencent le plus la décision. Cela oblige les médecins à comprendre le « pourquoi », transformant ainsi l'IA d'un système automatisé en un outil d'apprentissage continu.
D’autres solutions incluent des techniques de « coercition cognitive » — obligeant les utilisateurs à justifier l’acceptation des suggestions de l’IA — ou la conception de processus permettant d’afficher les suggestions ultérieurement plutôt que par défaut.
Cependant, aucune stratégie n'a encore démontré, par le biais d'essais cliniques, sa capacité à prévenir réellement la dégénérescence des compétences.
L'avenir dépend de la manière dont nous le mettrons en œuvre.
Le défi pour la médecine n'est pas de lutter contre l'IA, mais de l'intégrer de manière ciblée.
L'IA va sans aucun doute transformer le travail des médecins. Mais son impact, positif ou négatif, sur leurs capacités dépendra entièrement de l'usage que nous en ferons.
À l'avenir, les médecins s'appuieront sur des algorithmes. Mais la compétence déterminante pour leur carrière ne sera peut-être pas de mémoriser davantage ou de diagnostiquer plus rapidement, mais plutôt la capacité à questionner l'IA, à en tirer des leçons et à avoir le courage d'intervenir lorsqu'elle se trompe.
(Source : Forbes)
Source : https://vietnamnet.vn/ai-co-lam-thoai-hoa-ky-nang-bac-si-2494140.html






Comment (0)