Image de la leçon 90.png
Une application d'IA facilite le diagnostic par imagerie médicale . Photo : Midjourney

L'annotation des régions d'intérêt dans les images médicales, un processus connu sous le nom de segmentation, est souvent la première étape que les chercheurs cliniques franchissent lorsqu'ils mènent une nouvelle étude impliquant l'imagerie biomédicale.

Par exemple, pour déterminer l'évolution de la taille de l'hippocampe d'un patient avec l'âge, les scientifiques doivent cartographier chaque hippocampe à l'aide d'une série d'imageries cérébrales. Compte tenu de la multitude de structures et de types d'imagerie, ce processus manuel est souvent chronophage, surtout lorsque les régions d'intérêt sont mal délimitées.

Pour simplifier ce processus, des chercheurs du MIT ont développé un système basé sur l'IA qui permet aux scientifiques de segmenter rapidement de nouveaux ensembles de données d'imagerie biomédicale en cliquant, en dessinant ou en encadrant les images. Le modèle d'IA utilise ces interactions pour prédire la segmentation.

À mesure que l'utilisateur étiquete davantage d'images, le nombre d'interactions requises diminue, jusqu'à finalement tomber à zéro. Le modèle peut alors segmenter avec précision les nouvelles images sans intervention supplémentaire de l'utilisateur.

Cela est possible grâce à l'architecture du modèle, spécifiquement conçue pour exploiter les informations des images précédemment segmentées afin de réaliser des prédictions pour les images suivantes. Contrairement à d'autres modèles de segmentation d'images médicales, ce système permet aux utilisateurs de segmenter l'ensemble des données sans avoir à répéter l'opération pour chaque image.

De plus, cet outil interactif ne nécessite pas de jeu de données pré-segmenté pour son entraînement. Les utilisateurs n'ont donc pas besoin d'expertise en apprentissage automatique ni de ressources de calcul complexes. Ils peuvent utiliser le système pour une nouvelle tâche de segmentation sans avoir à réentraîner le modèle.

À long terme, cet outil pourrait accélérer la recherche de nouveaux traitements et réduire les coûts des essais cliniques et de la recherche médicale. Il pourrait également être utilisé par les médecins pour améliorer l'efficacité des applications cliniques, comme la planification des traitements de radiothérapie.

« De nombreux scientifiques ne peuvent segmenter que quelques images par jour pour leurs recherches, car la segmentation manuelle est trop chronophage. Nous espérons que ce système ouvrira de nouvelles perspectives scientifiques en permettant aux chercheurs cliniciens de mener des études qu'ils ne pouvaient pas réaliser auparavant faute d'outils performants », a déclaré Hallee Wong, doctorante en génie électrique et informatique, auteure principale d'un article présentant le modèle.

Optimisation des segments

Il existe actuellement deux méthodes principales utilisées par les chercheurs pour segmenter de nouveaux ensembles d’images médicales :

Segmentation interactive : un utilisateur saisit une image dans le système d'IA et marque les zones d'intérêt. Le modèle prédit un segment en fonction de ces interactions. Un outil précédemment développé par l'équipe du MIT, ScribblePrompt, permet cette opération, mais elle doit être répétée pour chaque nouvelle image.

Segmentation automatique basée sur les tâches : Créez un modèle d'IA spécialisé pour automatiser la segmentation. Cette méthode nécessite la segmentation manuelle de centaines d'images pour créer un jeu de données d'entraînement, puis l'entraînement du modèle de machine learning. À chaque nouvelle tâche, l'utilisateur doit recommencer ce processus complexe, et si le modèle est erroné, il est impossible de le modifier directement.

Le nouveau système, MultiverSeg, combine le meilleur des deux mondes. Il prédit un segment pour une nouvelle image en fonction des interactions (comme le gribouillage), mais enregistre également chaque image segmentée dans un contexte pour référence ultérieure.

À mesure que les utilisateurs téléchargent et annotent de nouvelles photos, le modèle s'appuie sur l'ensemble de contextes pour réaliser des prédictions plus précises et plus facilement. Son architecture permet d'utiliser des ensembles de contextes de toutes tailles, ce qui rend l'outil flexible pour de nombreuses applications.

« À un moment donné, pour de nombreuses tâches, vous n'aurez plus besoin d'interaction supplémentaire. Si le contexte contient suffisamment d'exemples, le modèle peut prédire le segment avec précision par lui-même », explique Wong.

Le modèle est entraîné sur des ensembles de données variés afin d'améliorer progressivement les prédictions en fonction des retours des utilisateurs. Il n'est pas nécessaire de réentraîner le modèle pour de nouvelles données : il suffit de charger de nouvelles images médicales et de commencer l'étiquetage.

Lors des tests comparatifs avec d'autres outils de pointe, MultiverSeg surpasse en termes d'efficacité et de précision.

Moins de travail, de meilleurs résultats

Contrairement aux outils existants, MultiverSeg nécessite moins de données d'entrée par image. Dès la neuvième image, deux clics suffisent pour générer une segmentation plus précise qu'un modèle spécifique à une tâche.

Avec certains types d’images comme les rayons X, l’utilisateur peut seulement avoir besoin de segmenter manuellement 1 à 2 images avant que le modèle soit suffisamment précis pour prédire le reste.

L'interactivité permet aux utilisateurs de modifier les prédictions, en itérant jusqu'à atteindre la précision souhaitée. Comparé au système précédent, MultiverSeg a atteint une précision de 90 % avec seulement 2/3 des mouvements et 3/4 des clics.

« Avec MultiverSeg, les utilisateurs peuvent toujours ajouter des interactions pour affiner les prédictions de l'IA. Cela accélère considérablement le processus, car l'édition est bien plus rapide que de repartir de zéro », a ajouté Wong.

À l’avenir, l’équipe souhaite tester l’outil en pratique clinique, l’améliorer en fonction des retours et étendre ses capacités de segmentation à l’imagerie biomédicale 3D.

La recherche a été financée en partie par Quanta Computer, Inc., les National Institutes of Health (NIH) des États-Unis et le matériel du Massachusetts Life Sciences Center.

(Source : MIT News)

Source : https://vietnamnet.vn/he-thong-ai-moi-ho-tro-day-nhanh-nghien-cuu-lam-sang-2450462.html