Les ordinateurs peuvent-ils décoder les notes des médecins ? La course pour automatiser les examens du cancer du sein
Le cancer du sein touche des millions de femmes dans le monde, mais le détecter précocement reste un défi. Les médecins s’appuient largement sur les IRM pour repérer les tissus suspects. Pourtant, il existe un goulot d’étranglement caché : les rapports générés à partir de ces examens. Les radiologues passent des heures à rédiger des notes détaillées—mais si les ordinateurs pouvaient les lire plus rapidement et avec plus de précision ?
Le problème des rapports en texte libre
Imaginez un médecin dictant des observations comme « rehaussement hétérogène du fond avec des contours irréguliers de la masse ». De telles phrases suivent des directives appelées BI-RADS (Breast Imaging Reporting and Data System), conçues pour standardiser l’évaluation du risque de cancer. Mais en pratique, les rapports varient énormément. Certains utilisent des abréviations ; d’autres mélangent les termes. Pour les chercheurs qui étudient les tendances du cancer ou les médecins qui examinent des cas antérieurs, parcourir manuellement ces notes est lent et sujet à erreurs.
C’est là qu’intervient le traitement du langage naturel (NLP), une forme d’intelligence artificielle qui lit le langage humain. Pourrait-il extraire des détails clés comme la forme de la tumeur ou les scores de risque à partir de rapports désordonnés ? Une étude récente a testé cette idée.
Entraîner les ordinateurs à « lire » comme les radiologues
Des chercheurs ont analysé 2 330 rapports d’IRM mammaire provenant d’un hôpital de Pékin. Leur objectif : construire un outil de NLP capable d’identifier automatiquement les termes BI-RADS. D’abord, ils ont adapté la liste officielle BI-RADS pour correspondre à la manière dont les radiologues locaux rédigeaient les rapports. Par exemple, « tissu fibroglandulaire » a été simplifié en catégories comme « dense » ou « dispersé ».
Le système de NLP fonctionnait en plusieurs étapes :
- Découper les rapports : Diviser le texte en sections (comme « Observations » ou « Conclusion »).
- Repérer les mots-clés : Associer des phrases comme « masse ovale » ou « rehaussement rapide » aux termes BI-RADS.
- Vérifier les négations : Détecter si une caractéristique était exclue (par exemple, « pas d’anomalies des ganglions lymphatiques »).
Humains vs machines : Qui a fait mieux ?
Deux radiologues ont examiné manuellement 695 rapports comme référence. Ils étaient d’accord à 95 % et ont repéré environ 1 250 lésions. Le système de NLP, quant à lui, en a trouvé 1 279—mais avec une réserve.
Précision détaillée :
- Points forts : L’outil excellait pour les termes clairs comme « forme de la masse » (99 % de précision) ou « problèmes de ganglions lymphatiques » (95 %).
- Points faibles : Il avait du mal avec les phrases vagues. Par exemple, « tissu fibroglandulaire modéré » était parfois manqué car les radiologues utilisaient des formulations non standard.
Globalement, l’ordinateur a atteint une précision équivalente à celle des humains dans 86 % des cas et a détecté 78 % de toutes les lésions. Mais sa vitesse était son superpouvoir : il traitait les rapports en moins d’une seconde, alors que les humains prenaient plus de 3 minutes par cas.
Pourquoi la vitesse compte dans les soins contre le cancer
Le temps gagné n’est pas qu’une question de commodité. Pour les cliniques surchargées, une extraction rapide des données pourrait :
- Identifier plus vite les cas à haut risque.
- Aider à suivre les changements des patients dans le temps (par exemple, la croissance d’une tumeur).
- Alimenter les bases de données de recherche avec des données structurées pour étudier les tendances du cancer.
Cependant, l’étude a révélé des obstacles. Les rapports provenant de différents hôpitaux pourraient embrouiller le système. De plus, le NLP se concentrait sur toutes les lésions, pas seulement les plus dangereuses. Les futurs outils pourraient prioriser les « lésions index » (tumeurs principales) pour faciliter la prise de décision.
La voie à suivre pour l’IA médicale
Cette recherche met en lumière le potentiel du NLP—et ses limites. Bien qu’il ne puisse pas remplacer les radiologues, il agit comme un assistant puissant. Imaginez-le comme un projecteur, parcourant des pages de texte à la recherche d’indices critiques. Pour les hôpitaux du monde entier, l’adoption de tels outils pourrait réduire les retards de diagnostic et libérer les médecins pour des tâches complexes.
Mais les défis persistent. L’entraînement de l’IA nécessite des données cohérentes. Si un hôpital écrit « rehaussement lent » et un autre utilise « cinétique retardée », le système est désorienté. Standardiser les formulations entre les institutions pourrait améliorer la précision.
Un avenir plus rapide pour l’imagerie mammaire
Automatiser l’extraction des termes BI-RADS ne vise pas à remplacer les humains. Il s’agit de gérer la « paperasse » pour que les médecins se concentrent sur les patients. Alors que l’IA apprend à naviguer dans le jargon médical, elle pourrait devenir un outil standard—comme un correcteur orthographique pour la radiologie.
Pour l’instant, des études comme celle-ci prouvent que le concept fonctionne. Avec des améliorations, le NLP pourrait bientôt transformer les rapports en texte libre chaotiques en données organisées, aidant les médecins à détecter le cancer plus tôt et avec plus de confiance.
À des fins éducatives uniquement.
doi.org/10.1097/CM9.0000000000000301