Egalité et Réconciliation
https://www.egaliteetreconciliation.fr/
 

Minority Healthcare

L’intelligence artificielle (IA) a pénétré le domaine médical avec la promesse d’une amélioration de la précision et de l’efficacité, tant du diagnostic que du traitement [1]. Restons ouvert, au moins pour la beauté du progrès en marche. Abandonner des tâches rébarbatives et sans valeur ajoutée à qui peut le faire sans défaillance, et se libérer du temps pour des choses plus intéressantes, quoi de mieux en effet. En réalité, rien ne va vraiment changer. Nous resterons dans la continuité de ce qui se faisait avant, sans bien sûr remettre en question la manière de soigner, mais avec en plus l’alibi de l’infaillibilité de la technologie. On peut craindre en revanche que l’utilisation de l’IA soit une étape de plus dans la standardisation de la médecine, et dans l’abandon du qualitatif au profit du quantitatif. Avec en perspective, la difficulté de se défendre contre un programme qui prétendra tout savoir de nous. Il y a plus de 20 ans, Steven Spielberg avait mis en scène la toute puissance de la technologie de l’unité de police précrime, et le danger des arrestations préventives. Gardons-nous bien d’accepter le piège du prépathologique.

 

 

La médecine est un art difficile

Les articles dithyrambiques sur l’IA [2] nous imposent d’emblée et sans le démontrer l’idée d’un progrès consécutif à une amélioration de l’imagerie médicale. Mais il y a matière à discuter ! Soigner, guérir, soulager la douleur est chose complexe. S’il s’agissait simplement de poser une étiquette et d’appliquer le traitement qui lui correspond, nous n’en serions pas là. On pourrait réparer les corps, comme on répare les machines. La seule étape du diagnostic – qui ne garantit pas la guérison – est déjà en soi un processus complexe. Le diagnostic reste par nature sujet à nombreuses erreurs, elles-mêmes imputables à de nombreuses causes. S’il s’agit d’un problème de détection lié à une mauvaise perception visuelle, l’IA sera certainement d’une grande aide. En effet, elle est de plus en plus utilisée pour sa capacité à segmenter et étiqueter les différentes structures dans les images médicales, en un temps record. La recherche développe des algorithmes capables de corriger automatiquement les distorsions d’image, ce qui permet de réduire le « bruit », pourrait-on dire par comparaison avec les prises de son. Cependant, il faut rester prudent, car dans ce domaine nous avons déjà l’expérience de grosses déconvenues.

 

Erreurs technologiques

Fin 2016, la revue Science et Avenir reprend un article de PNAS, et révèle au grand public qu’un algorithme fréquemment utilisé pour les IRM, entraînait un taux gigantesque de faux positifs [3]. Anders Eklund, l’auteur de l’étude, avait investigué la fiabilité de trois des principales librairies logicielles les plus répandues pour la construction et l’analyse des images IRM (SPM, FSL et AFNI), en rassemblant des IRM de 499 personnes saines, réparties en groupes de 20, pour un total de 3 millions de tests en double aveugle. L’expérience a été répétée des milliers de fois, sur un panel de personnes testées toutes en parfaite santé. L’équipe de recherche d’Eklund a démontré que l’on pouvait obtenir jusqu’à 70 % de faux positifs, c’est-à-dire plus de deux tiers de diagnostics pathologiques chez des gens qui n’étaient pourtant pas malades. L’étude pointait du doigt que « les conclusions du logiciel sont faussées dès lors que l’algorithme ne travaille plus sur les seuls voxels, mais sur des regroupements de voxels » [4]. Une erreur technologique, donc. Dès lors qu’il se focalisait sur plusieurs voxels (sorte de pixel 3D), le logiciel considérait qu’une zone de l’organe était active quand en réalité elle ne l’était pas. Autrement dit, on aurait pu vous étiqueter malade sur une erreur d’algorithme. Ce rappel pour modérer un élan trop enthousiaste sur les réussites de la technologie, et pour prévenir de l’aura de fiabilité absolue des nouvelles technologies.

 

La question controversée des détections précoces…

En dehors d’un aspect purement technique, la question de fond des diagnostics précoces doit être également posée. Diagnostiquer les maladies à un stade précoce, pour traiter précocement et ainsi améliorer les résultats thérapeutiques, est une croyance en partie erronée dont la pratique médicale à déjà fait les frais. Si le raisonnement est facile à comprendre, puisque, comme le disait de manière très efficace le docteur André Gernez, « le sens commun veut qu’il soit plus facile d’écraser un gland qu’un chêne » [5], l’application dans la vie réelle révèle parfois des surprises. Dans la même veine que précédemment, le taux de faux positifs de cancer dans le cadre de mammographies de dépistage, donc pour une détection précoce, a pu monter jusqu’à hauteur de 61 % [6]. C’est ce qui a conduit avec les années à un changement d’attitude des professionnels autant que des femmes, envers la pratique systématique de la mammographie de masse [7].

 

… et des détections fortuites

Les détections fortuites sont une autre perspective qu’il faut s’attendre à voir jaillir à la pelle des vastes données de toute cette nouvelle imagerie IA. Ainsi, une constatation sans lien avec l’indication clinique de l’examen planifié peut révéler « fortuitement » un problème insoupçonné, qu’il faudra bien investiguer. On a souvent débattu de la prise en charge excessive de ces données diagnostiques supplémentaires. Déjà en 1972, Rang décrivait avec humour le « syndrome d’Ulysse », ce long voyage effectué par les malades au travers des différentes investigations dont ils seront l’objet, vivant un certain nombre d’aventures avant de revenir enfin à leur point de départ [8], soulignant le fait que la plupart des détections fortuites s’étaient finalement révélées bénignes. Il existe même un terme pour les patients qui ont fait l’objet d’examens inutiles : ils sont qualifiés de victimes de la technologie de l’imagerie moderne (VOMIT pour victims of modern imaging technology) [9].

 

Une apparence d’individualisation médicale

Mais l’emballage et le marketing est soigné. L’IA promet ce qui nous manque le plus : une approche individualisée. En réalité, le mot « individualisation », qui serait le véritable progrès à faire, n’est pas employé. On parle de « personnalisation », ce qui n’est pas la même chose. Une médecine individualisée est à l’opposé d’un traitement de masse, elle soigne une personne unique dans sa physiologie et dans ses réactions. L’IA fait miroiter la possibilité d’adapter les traitements médicaux à chaque patient en fonction de ses caractéristiques, telles que son patrimoine génétique, ses antécédents médicaux et son mode de vie. Ainsi, de la même manière qu’à la cantine du self, on vous propose de personnaliser votre salade, en rajoutant au choix : olives, tomates, oignon, croutons, et/ou feta en supplément, le traitement « personnalisé » serait une simple customisation des traitements habituels. En gros, ils reposeront sur le traitement informatique de quelques croix supplémentaires sur un questionnaire standard remis en début de parcours thérapeutique, et de la compilation de tous vos antécédents. Il ne s’agit en aucun cas du traitement sur mesure du médecin personnel d’un malade, qu’il reçoit en consultation et accompagne, lui et sa famille, depuis plusieurs années.

Mais il est vrai – et cela devient inquiétant – que les algorithmes d’IA peuvent analyser de vastes ensembles de données sur les patients, identifier des modèles, et prédire la manière dont il serait susceptible de réagir à tout type de traitements. Nous voici avec la perspective d’un problème éthique supplémentaire à gérer.

 

Prévention, prédiction et évaluation des risques

Car si détection précoce n’est pas synonyme de prévention – l’amalgame est fréquent – l’IA va plus loin. Nous quittons la détection de masse pour entrer dans la prédiction individuelle. En effet, l’IA met au point des modèles d’évaluation des risques, sur la base des données de patients, qui peut être énorme. C’est le fameux Big Data. La littérature parle d’identifier les risques potentiels et prédire la probabilité de développement de certaines conditions, par exemple des signes de cancer ou les premiers stades de la maladie d’Alzheimer. « L’IA et la science des données peuvent être utilisées pour développer des modèles prédictifs qui peuvent prévoir la probabilité de certains résultats de santé sur la base des données du patient » [10], nous dit-on. Amateurs de vin, ou sportifs en canapé, attention à ce que vous déclarerez ! Vous saviez déjà que ce n’était pas bon pour votre santé, mais l’IA vous le dira d’une façon scientifique. Et vous aurez peut-être même droit, en bas de page de votre analyse dématérialisée, à un bandeau du type « manger-bouger, un message du ministère de la Santé ». Espérez simplement qu’il n’y ait pas de fuite vers votre assureur ou votre futur employeur. Les précautions d’usage sont affichées, mais sans avoir les moyens d’en garantir le résultat : « Toutefois, il est essentiel de veiller à ce que les algorithmes d’IA soient développés et utilisés de manière responsable et éthique, en mettant l’accent sur la protection de la vie privée et la sécurité des patients. » Bien sûr.

 

Problèmes éthiques en cascade

Ces prédictions pourront malheureusement revêtir, chez celui qui les reçoit, l’apparence de données scientifiquement éclairées sur les options ou les nécessités de traitement. Comment de surcroît gérer l’anxiété de cette probabilité ? Imaginons un dépistage de la maladie d’Alzheimer, sur le modèle du dépistage du cancer du sein ou du colon, en recourant à l’imagerie IRM.

« Outre les limites de telles démarches, toujours coûteuses et parfois inutilement angoissantes, leur mise en œuvre est à l’heure actuelle totalement irréaliste en ce qui concerne la maladie d’Alzheimer, pour laquelle n’existe aujourd’hui aucun traitement curatif. Et même si, par la suite, un traitement curatif était découvert, s’il s’avère que ce traitement est plus efficace quand il est employé à un stade très précoce de la maladie, faudra-t-il recourir à un tel traitement, très probablement agressif, uniquement sur des images d’IRM (éventuellement confirmées par des dosages sanguins et/ou dans le liquide cérébro-spinal) chez des patients à un stade totalement asymptomatique ? » [11]

Ainsi, la possibilité de faire une IRM de précision n’exonère ni ne facilite le choix thérapeutique à faire. En d’autres termes, si la machine ne répond pas aux questions, elle nous en fait en revanche poser de plus épineuses.

 

De bien délicates limites

La littérature reconnait que, bien qu’ils puissent fournir des informations précieuses et une aide au diagnostic et au traitement de certaines maladies, la technologie IA n’a pas le même niveau de jugement clinique et d’expérience qu’un humain expérimenté. On peut lire que « l’IA doit être utilisée comme un outil pour soutenir le personnel soignant plutôt que de les remplacer ». La formulation fait frémir, car elle contient l’idée qu’on a sérieusement réfléchi à la question. Or les approches qui ambitionnent de rendre compte des bénéfices possibles de l’IA sous-estiment largement les normes qui régulent l’activité diagnostique et le processus interprétatif d’une image médicale.

« Loin de se résumer a "un constat base" sur des signes qui seraient immédiatement disponibles sur l’image et univoquement liés à une pathologie, les "cibles" visibles surgissent au fur et à mesure en fonction des informations et des savoirs dont les radiologues disposent. » [12]

Le diagnostic humain, lui, est interactif, vivant et expérientiel.

 

En route pour la généralisation du nouveau dossier numérique

L’utilisation de l’IA est sérieusement envisagée pour analyser des images médicales prises à domicile. Très pratique pour vous éviter de longues heures d’attente. Mais tout aussi intéressant pour la gestion d’éventuels futurs lockdowns ! Suivre les patients à distance pour détecter rapidement d’éventuels problèmes de santé est une façon astucieuse de répondre aux critiques liées aux retards de prise en charge pour cause de confinement. Dans ce contexte-là, le « nouveau dossier numérique en ligne Mon Espace Santé », anciennement « dossier médical partagé » devient indispensable. Si vous souhaitez le refuser, il faudra en faire la demande active [13]. Ces dossiers numériques contiennent en effet une multitude d’informations sur les antécédents médicaux d’un patient. De quoi mettre quelque chose de conséquent sous la dent des algorithmes d’IA qui se chargera d’identifier nos risques potentiels et de recommander des plans de traitement « personnalisés ».

 

Conclusion

L’affirmation enthousiaste que l’IA améliorera la santé des populations pèche par son parti pris et sa naïveté. L’IA exécute. Elle applique le programme que quelqu’un – avec une intention propre et une faillibilité questionnable – a conçu. Son utilisation ne présage pas de la bonne indication de l’examen proposé, qui repose sur la pertinence d’effectuer d’un examen d’imagerie. Elle ne présage pas non plus de la bonne interprétation de l’examen, car elle n’évitera pas les erreurs provenant d’un raisonnement erroné face à une image, si nette soit-elle. Le choix du protocole d’examen adéquat restera à faire, et la conduite à tenir à l’issue de l’examen à définir.

L’IA est une pirouette rutilante qui nous ramène à la distinction philosophique entre les faits et les valeurs, puisque, en dernier instance, l’acte médical repose sur un choix, et non sur une vérité. Comme le héros de Spielberg, sauvé par des « minority reports », il se pourrait bien que la voie de salut se trouve dans ce qu’on pourrait appeler des minority healthcare, c’est-à-dire des éléments minoritaires – mais très spécifiques de chaque personne unique – que le médecin personnel du malade aura su percevoir et traiter.

– Béa Bach pour la Section Santé d’E&R –

 

Ne manquez pas Béa Bach à Toulouse, le samedi 27 avril !

Notes

[1] https://www.inserm.fr/dossier/intel...

[2] https://openmedscience.com/revoluti...

[3] https://www.sciencesetavenir.fr/san...

[4] Les capteurs sont dotés d’une certaine résolution permettant de définir un maillage 3D pour l’organe examiné. Chaque unité de volume est baptisée « voxel », par analogie avec le mot pixel.

[5] Jean-Claude Meuriot et Jacques Lacaze, Pour une politique publique de prévention active des cancers, les propositions du docteur André Gernez , éditions de la Renaissance, 2012.

[6] Mise au point sur les erreurs d’analyse des examens d’imagerie médicale, Journal d’imagerie diagnostique et interventionnelle, vol 3, avril 2020.

[7] https://www.lapresse.ca/vivre/sante...

[8] M. Rang The Ulysses syndrome. Can Med Assoc J. 1972

[9] R. Hayward, VOMIT an acronym for our times. BMJ. 2003

[10] https://openmedscience.com/revoluti...

[11] Didier Dormont, L’imagerie médicale dans le diagnostic des maladies neurodégénératives, Laennec 2012/4

[12] G. Anichini et B. Geffroy, L’intelligence artificielle à l’épreuve des savoirs tacites. Analyse des pratiques d’utilisation d’un outil d’aide à la détection en radiologie. Sciences sociales et santé 2021

[13] https://www.aide-sociale.fr/mon-esp...

Béa Bach dissèque la médecine moderne

 
 






Alerter

10 Commentaires

AVERTISSEMENT !

Eu égard au climat délétère actuel, nous ne validerons plus aucun commentaire ne respectant pas de manière stricte la charte E&R :

- Aucun message à caractère raciste ou contrevenant à la loi
- Aucun appel à la violence ou à la haine, ni d'insultes
- Commentaire rédigé en bon français et sans fautes d'orthographe

Quoi qu'il advienne, les modérateurs n'auront en aucune manière à justifier leurs décisions.

Tous les commentaires appartiennent à leurs auteurs respectifs et ne sauraient engager la responsabilité de l'association Egalité & Réconciliation ou ses représentants.

Suivre les commentaires sur cet article

  • #3353219
    Le 22 avril à 09:48 par Kroutoy
    Minority Healthcare

    La médecine est un art difficile
    Merci à Béa de rappeler que la médecine est un art et non une science (même si elle utilise les résultats de la science).

     

    Répondre à ce message

  • #3353241
    Le 22 avril à 10:27 par !
    Minority Healthcare

    Derrière l’IA, il y aura toujours des petits malins qui exploiteront les buts politiques, médicaux et financiers les plus rentables…

     

    Répondre à ce message

  • #3353243
    Le 22 avril à 10:34 par Bernard Mitjavile
    Minority Healthcare

    Article très bien argumenté. L’IA, la nouvelle idole de gens comme le professeur Laurent Alexandre. Comme disait une vieille chanson de S Vartan "N’écoute pas les idoles".

     

    Répondre à ce message

  • #3353259
    Le 22 avril à 11:07 par droit devant
    Minority Healthcare

    idée 1 :
    La technê issue du génie humain n’est pas le problème en soi, mais ce qu’on en fait.

    idée 2 :
    Par exemple, l’homme primitif au lieu d’utiliser une pierre pour frapper son camarade, a eu l’idée de la tailler pour pouvoir découper sa viande.

    Conclusion : l’intention éthique, et même la considération religieuse est au coeur de nos sociétés qui ensuite les orientent dans telle ou telle voie !
    Comme dit Plaquevent et je suis d’accord avec ça, finalement, « l’identité c’est d’abord la religion ».
    Et un des symptômes de notre société maladive est précisément que ce reliere est mis de côté pour traiter les personnes individuellement, car tant qu’on peut les fragmenter en maux et en maladies, et maintenant "traitements préventifs", bah ça fait autant de marchés à faire fructifier... grâce à la technologie orientée.

    Cette fragmentation sociale se structure horizontalement et de manière illimitée, soit l’exact inverse d’une société humaine axée verticalement sur l’ordre divin pour le véritable bien de chacun.

    Il est urgent d’en sortir car plus sa complexification se fait dense, plus il va être difficile de se comprendre pour rappeler l’essentiel, le bon sens etc.

    On va vers l’idiocratie c’est-à-dire une vaste bouse du chacun pour soi, un vaste dépotoir, a contrario de ce simple exemple animal : observez les termites faire société, tous ses éléments construisent ensemble une termitière qui s’élève naturellement... nous on ne sera même plus capables de ça, juste parce qu’une petite minorité aura réussi à dresser la majorité !

     

    Répondre à ce message

  • #3353335
    Le 22 avril à 14:00 par anonyme
    Minority Healthcare

    "Nous resterons dans la continuité de ce qui se faisait avant, sans bien sûr remettre en question la manière de soigner, mais avec en plus l’alibi de l’infaillibilité de la technologie."

    Et aussi avec l’alibi de la diminution des coûts, qui lui sera avéré.

    Chaque fois que la grande entreprise remplace un humain par une machine qui coûte moins cher aux actionnaires, les pouvoirs publics sont prêt à laisser passer sans se soucier des risques pour l’humain.

    On a vu ce principe à l’oeuvre avec la conduite informatisée des voitures. Dans une voiture, un tas de composantes subalternes, et ayant peu d’impacts sur la sécurité, doivent passer des batteries de tests impitoyables avant d’être approuvées, mais quand il s’est agi de confier la conduite à un ordinateur tout est passé comme une lettre à la poste, et les accidents qui ont suivis n’ont rien changé.

    Dans l’industrie automobile, un défaut mineur sur une composante subalterne peut susciter (ou obliger) un rappel de milliions de véhicules, mais la "version beta 3.0.1a, nightly build" du logiciel de conduite peut être mise en service du jour au lendemain, après qu’un piéton se soit fait écraser de façon inexplicable par la version précédente.

     

    Répondre à ce message

  • #3353356
    Le 22 avril à 15:03 par GIL
    Minority Healthcare

    Pour info, après des années de destruction du service public hospitalier, ça y est, ’La Tribune’ vient de sortir un sondage exclusif : la majorité des Français juge désormais possible la privatisation du système de santé

    la gratuité des soins est le véritable marqueur de la démocratie... on s’en éloigne et c’est pas nouveau

     

    Répondre à ce message

    • #3353401
      Le 22 avril à 17:07 par boots
      Minority Healthcare

      Croire aux résultats d’un sondage est un risque à éviter, sauf à en envisager les résultats opposés, comme ça, pour se faire une idée.

       
  • #3353928
    Le 23 avril à 19:15 par Heisenberg
    Minority Healthcare

    Article vraiment très intéressant qui a le mérite de démystifier l’intelligence artificielle. Néanmoins, ne serait-ce pas un bon outil pour le croisement de grandes données pour traiter certaines maladies pour lesquelles il y a peu de solutions (maladies rares, génétiques, pertes d’un organe comme un oeil...) ?

     

    Répondre à ce message

  • #3354034
    Le 24 avril à 01:35 par RUSSIAFORCE
    Minority Healthcare

    Ayez la force de dire : non !

    simple et efficace, l’arme ultime.

     

    Répondre à ce message

  • #3354807
    Le 25 avril à 14:04 par Très fort
    Minority Healthcare

    Juste un aspirine et de l’eau

     

    Répondre à ce message