| |
| Med Sci (Paris). 35(10): 797–803. doi: 10.1051/medsci/2019158.Intelligence clinique et intelligence
artificielle Une question de nuance Claude Matuchansky1* 1Faculté de médecine, université Paris-Diderot,
10 avenue de Verdun,
75010Paris,
France |
Vignette © Lightwise/123RF.
« La nuance est le luxe de l’intelligence libre »
(Albert Camus)1
La médecine clinique est à l’ère de l’intelligence artificielle (IA). Partant,
mutatis mutandis - changer ce qui doit être changé - est-il dit.
Volens nolens - qu’on le veuille ou non - ajoutent d’aucuns ! Oui,
mais pas à n’importe quelle condition ni à n’importe quel prix, notamment pas à celui de
sacrifier la relation singulière patient-soignant, préciserai-je. Faisant fi de
l’opposition entre bioprogressistes et bioconservateurs, de la querelle des anciens et
des modernes, la nuance est plus que jamais nécessaire à un débat dépassionné et
argumenté entre intelligence clinique et intelligence artificielle ! Sont analysés ici quelques éléments distinctifs - en pratique médicale - entre
intelligence clinique et intelligence artificielle, notamment en matière de prise en
charge de la personne, de décisions prises et de conscience de ces décisions. L’objectif
est de souligner la complémentarité entre ces deux intelligences, mais aussi les risques
de substitution, à terme, de la seconde à la première. |
C’est là tout l’art et toute la science du praticien, que guère de revue n’a, à mes
yeux, mieux définis et exprimés - et continue à le faire - le prestigieux
New England Journal of Medicine, d’abord par sa rubrique «
Medical Intelligence », puis, après elle, à travers ses
sections « Clinical problem-solving », ou « Clinical
implications of basic research », qui entretiennent l’indispensable
aller-retour entre clinique et recherche. Là est précieusement et régulièrement
livrée ce qu’il convient donc d’appeler l’intelligence clinique de la médecine, de
la prise en charge holistique de la personne à la découverte de nouvelles maladies
et à celle de leurs mécanismes, de leurs outils de diagnostic et de traitement. En pratique médicale et de soins, « tout commence et tout finit par la clinique ».
Cet aphorisme qui, pour d’aucuns, appartiendrait à la médecine d’hier, reste d’une
parfaite actualité. En effet, la clinique - qui va de l’abord, de l’écoute, du
dialogue avec la personne et de son examen physique attentif, aux hypothèses
diagnostiques et thérapeutiques et à la recommandation, si nécessaire,
d’investigations paracliniques, de la synthèse de leurs résultats à leur intégration
aux caractéristiques physiques, émotionnelles et psychologiques de la personne -
représente encore l’essentiel de l’exercice quotidien des quelques 103 000 médecins
généralistes et de bon nombre des 124 000 spécialistes en activité (régulière ou de
remplacement) en France en 2018 ; elle est aussi la part essentielle de l’activité
des soignants non-médecins, infirmiers, sages-femmes, et kinésithérapeutes
notamment. L’intelligence clinique, fondée sur ces caractéristiques, n’en a pas, pour autant, la
vie facile. La médecine clinique est, en effet, masquée par tout ce qui se prend
pour elle, cernée par l’indifférence, menacée d’omission, accusée d’obsolescence ou
dévorée par l’oubli. Pourtant, tout à la fois ancienne et moderne, elle n’est pas,
loin s’en faut, une vieille dame, celle des Diafoirus père et fils2, du « Malade imaginaire » de
Molière. L’intelligence clinique a su, en effet, s’adapter, avec ses valeurs
propres, aux nouvelles techniques et aux progrès médicaux : elle a notamment su les
intégrer dans des arbres de décisions et des algorithmes cliniques, alimentés depuis
les années 1990 par la « médecine fondée sur des données probantes » et conformes
aux données contemporaines de la science médicale. Si nécessaire, la pratique
clinique intègre des dispositifs techniques au contact du patient, telle
l’échographie abdominale ou cardiaque. Ni sacro-sainte ni dépositaire d’une vérité
éternelle, mais méthode médicale incarnée, fondée sur le discernement et, par
essence, personnalisée, la clinique ne s’oppose donc pas aux investigations les plus
récentes : elle est un filtre de leurs indications, les sélectionnant et les
hiérarchisant selon l’individualité du patient. Les meilleures revues médicales internationales n’omettent jamais d’inclure les
données issues de la clinique - lorsqu’elles sont disponibles -, y compris celles de
l’examen physique, dont de récentes études nord-américaines et la très active
Société américaine de médecine clinique ont confirmé l’importance fondamentale : une
insuffisance de l’examen physique était même la cause du retard ou de l’omission
diagnostique dans deux cas sur trois d’une série de plus de 200 patients ayant connu
un tel problème diagnostique [1, 2]. Intelligence clinique et incertitude en médecine Le raisonnement clinique, même ancré sur des données probantes, inclut aussi la
gestion - nuancée - de l’incertitude : l’observation médicale et l’empirisme
n’étaient-ils pas, pour Claude Bernard, dans son « Introduction à la
médecine expérimentale » 3, des
appuis nécessaires à la médecine scientifique ? La tolérance de l’incertitude -
que ne suppriment pas les algorithmes prédictifs de l’IA [ 3] - a été récemment jugée comme un élément
d’une prochaine révolution médicale [ 4]. Les vertus du doute ne doivent surtout pas être
confondues avec la perte de confiance dans la science médicale [ 5] - telle que l’inadmissible remise
en cause des vaccinations - ni avec les redoutables mises en cause et
scepticisme à l’égard des résultats de la recherche, établis avec les outils
scientifiques les plus performants, comme l’ont bien analysé, dans
médecine/Sciences, Jean-Luc Teillaud [ 6] ( →) et Marie Gaille
[ 7]
( →).
(→) Voir l’Éditorial de J.L. Teillaud, m/s n° 1, janvier
2019, page 7
(→) Voir l’Éditorial de M. Gaille, m/s n° 11, novembre
2017, page 919
En médecine clinique, le doute et l’ébranlement occasionnel de pseudo-certitudes
- lorsqu’ils sont raisonnés pour ne pas faire obstacle, inversement, à la prise
de décision - peuvent être un moteur d’éthique, de correction d’erreurs et de
progrès de la connaissance. La pratique clinique enseigne vite que la médecine
est tout autant un art qu’une science ou une technique. William Osler
(1849-1919) en avait fait une maxime : « La médecine est une science de
l’incertitude et un art de la probabilité » [4]. Face à cela, les succès de l’IA médicale, principalement
en analyse et diagnostic d’images, renforcent l’idée de certitude et de maîtrise
absolues, de prédiction et de prévisibilité [8]. Les facettes de l’intelligence clinique L’intelligence clinique possède une riche panoplie, faite d’intelligence non
seulement cognitive, mais aussi émotionnelle et adaptative - contrôle de soi et
des émotions négatives -, d’intelligences sensible, relationnelle, intuitive ou
décisionnelle, d’intelligence du cœur vectrice d’empathie. Paul Valéry
(1871-1945) soulignait que « la sensibilité qu’on oppose à tort à
l’intelligence [...] en est, au contraire, la véritable puissance
motrice ». L’intelligence sensible peut - comme le fait la pensée,
ce qu’a élégamment rappelé Axel Kahn dans un éditorial de
médecine/sciences [ 9] ( →), accélérer le cœur, déclencher des
émois, ce que ne peut faire l’intelligence artificielle, elle-même dépourvue de
corps sensible. Des deux types d’intelligence qu’Henri Bergson (1859-1941)
distinguait, dans « Le rire », la première, et pour lui
l’essentielle, était l’intelligence intuitive - qu’il jugeait profonde et nous
permettant de communier avec l’existence -, à l’opposé de la seconde,
l’intelligence prédatrice, rusée et violente. Coupé de l’intelligence intuitive,
on est aussi, pour Bergson, coupé de soi-même et de la vie réelle.
(→) Voir l’Éditorial d’A. Kahn, m/s n° 4, avril 2018,
page 283
Mais l’intelligence clinique a ses défis actuels : brièveté de la consultation
physique, due à l’afflux des demandes et aux déserts médicaux régionaux incluant
la raréfaction de soignants cliniciens non-médecins. Pour aussi graves de
conséquences qu’ils soient, ces défis ne sauraient être le prétexte au
remplacement systématisé de la pratique clinique directe par une télémédecine
faite de consultations virtuelles et de télécabines médicales. La télémédecine -
téléconsultation, téléconseil, télé-expertise, télésurveillance -, source d’une
nouvelle réalité médicale, dite « virtuelle », trouve sa place dans des
circonstances définies par la récente législation française4, notamment dans les déserts médicaux. Bien que parfois
désignée comme « la vraie médecine de proximité », la télémédecine n’est pas à
ériger en panacée : Pierre Simon, ancien président de la Société française de
télémédecine, reste circonspect et maintient qu’un examen clinique direct fait
mieux qu’une primo-téléconsultation [10]. Le législateur est d’ailleurs allé dans ce sens,
indiquant, qu’en dehors des cas précisés au Journal officiel, le patient
téléconsultant devra avoir été vu au moins une fois, dans les 12 mois précédant
la première téléconsultation, en consultation réelle par le médecin
téléconsulté. Une analyse détaillée de la télémédecine en France, de ses enjeux
et de ses applications potentielles [11, 12] incluant les maladies rares [11, 13,
14]
(→), a été récemment publiée dans
médecine/sciences, de même que les limites et les problèmes
éthiques soulevés par sa virtualité, par exemple en soins bucco-dentaires [15] (→).
(→) Voir les articles de S. Aymé, E. Salamanca, P. Leleu, P. Espinoza,
m/s hors série n° 1, mai 2018, pages 22, 26, 32,
33
(→) Voir l’article Repères de M. Allouche et
al., m/s n° 12, décembre 2017, page
1105
Allant plus loin dans le dépassement du « réel » colloque singulier
patient-médecin, d’aucuns préconisent l’installation d’une nouvelle profession
et spécialité médicale, celle de médecins « virtualistes » [16]. D’autres préconisent, en
première intention et à des fins de gain de productivité, une médecine de «
self-service » par la personne, une médecine sans médecin, par analogie aux
modèles de commerce concurrentiel. En fait, le maintien de la présence - et de
la formation - de cliniciens de terrain aptes à recueillir, au contact de la
personne, des données qualifiées, claires, bien annotées, ni fautives ni
biaisées, est une nécessité ; c’est, en effet, de la qualité de ces données - ce
nouveau pétrole, cet « or gris » tant recherché et capté par les géants de
l’informatique - que dépend la fiabilité des algorithmes de l’intelligence en
santé. On peut ici rappeler l’impact économique du marché de l’e-santé estimé à
4 milliards d’euros pour 2020 en France [12] et à 1 000 milliards (!) de dollars dans le monde : la valeur
des données de santé représenterait 6 à 10 fois la valeur des données
financières ! [17] |
Intelligence artificielle en médecine clinique Succès et promesses L’IA actuelle en médecine, surtout fondée sur une approche connexionniste
(analogique) par apprentissage automatique, notamment profond, peut se prévaloir
de grandes performances, comme - essentiellement - l’analyse d’images [ 18, 19] à visées diagnostique et
pronostique, aussi bien en : radiologie (de la radiographie
thoracique à la tomodensitométrie, mammographie ou neuro-imagerie) ;
ophtalmologie (diagnostic de la rétinopathie diabétique au
fond d’œil [ 20],
premier algorithme diagnostique direct de l’IA à avoir été reconnu par la
Food and Drug Administration [FDA], en avril 2018);
dermatologie (reconnaissance et classification de cancers
cutanés) [ 19] ;
cardiologie (lecture d’électrocardiogrammes,
d’échocardiogrammes, détection d’arythmies) [ 19] ; cancérologie et anatomie pathologique
(analyse d’images de lames pour la détection précoce de divers cancers) [ 19] ; chimiothérapie
personnalisée [ 21] ( →) et robotique chirurgicale
assistée par l’IA ; endoscopie (reconnaissance de polypes
colorectaux) [ 19]. L’apport des données
massives en génomique et en génétique médicale - et celui de leur partage,
devenu synonyme d’échange commercial, notamment en Amérique du Nord - a été
largement souligné en matière de génétique des populations, de
pharmaco-génomique, de prédiction de certains phénotypes et maladies [ 18, 22, 23] ( →).
(→) Voir l’article Numérique et santé de B. Wolf et C.
Scholze, m/s n° 5, mai 2018, page 456
(→) Voir le Forum de H.C. Stoeklé et al.,
m/s n° 8-9, août-septembre 2018, page 735
Les algorithmes de l’IA en santé permettent de recueillir et d’analyser les
données en vie réelle : issues des dossiers médicaux électroniques et des
patients eux-mêmes, elles sont désignées comme un enjeu majeur pour la qualité
des soins et la régulation du système de santé. Les évaluations en monde réel
peuvent remplacer, dans des circonstances définies, les modalités classiques des
essais cliniques, notamment les essais contrôlés et randomisés (ECR) ; mais il a
aussi été souligné, en 2019, que les algorithmes médicaux de l’IA ne devaient
pas souffrir d’exception scientifique et que les ECR devaient rester l’étalon-or
de leur évaluation et validation en santé clinique [24]. Les données de santé en vie réelle
alimentent l’actuel Système national des données de santé (SNDS) et la
plateforme des données de santé (Health data hub) récemment
créés : elles constituent une base exceptionnelle, « une mine d’or patrimoniale
» dans un pays centralisé de la dimension de la France [25] (→).
(→) Voir l’article Numérique et santé de D. Polton,
m/s n° 5, mai 2018, page 449
Mais elles demandent à être enrichies, notamment parce qu’elles sont
essentiellement médico-administratives, peu cliniques [25], et souvent peu claires et « bruitées ». Pour
recueillir des données de terrain, bien annotées, qualifiées et fiables, les
cliniciens de première ligne restent nécessaires : les incitations visant,
parallèlement à la promotion de la télémédecine et de l’IA en santé, à aider les
cliniciens par la création de postes d’assistants médicaux vont dans le bon
sens. Des progrès sont à attendre, en matière de données cliniques, du dossier
médical partagé et de la plateforme des données de santé. L’intérêt, pour la
recherche clinique y compris à l’Inserm, des dossiers de santé électroniques
hospitaliers et du projet européen EHR4CR (Electronic health records for
clinical research) a été judicieusement rappelé dans
médecine/sciences [26] (→).
(→) Voir l’article Numérique et santé de D. Dupont
et al., m/s n° 11, novembre 2018, page
972
L’exploitation de bases de données massives est une chance pour la recherche et
le possible croisement de données cliniques, biologiques et génomiques avec
d’autres données personnelles ou d’environnement est un facteur important de
progrès, notamment en pharmaco-épidémiologie [25]. Les algorithmes de l’IA donnent aussi de sérieux espoirs en matière d’urgences
médicales (prévision, orientation, régulation), de neuropsychiatrie
(surveillance « connectée » pour prévention du suicide) [27] (→), d’observance
thérapeutique [28]
(→), de biobanques (organisation, échanges, partages de
données, notamment génomiques) [29] (→), ainsi qu’en épidémiologie clinique et
en santé publique, où sont solidement présentes des équipes de recherche de
l’Inserm [30].
(→) Voir l’article Numérique et santé de S. Berrouiguet
et al., m/s n° 8-9, août-septembre
2018, page 730
(→) Voir l’article Numérique et santé de N. Postel-Vinay
et al., m/s n° 8-9, août-septembre
2018, page 723
(→) Voir l’article Numérique et santé de G. Dagher et
al., m/s n° 10, octobre 2018, page 849
Critiques, réserves, limites de l’intelligence artificielle en pratique
clinique Parallèlement à ses acquis très prometteurs en analyse d’images, l’IA soulève,
quant à son introduction potentielle en clinique courante - notamment médecine
générale et interne - des questions d’ordres méthodologique, structurel,
sémantique, médiatique et éthique. Questions méthodologiques Diverses faiblesses et limites de l’IA connexionniste (analogique) actuelle
sont régulièrement relevées. - l’IA
analogique nécessite des données parfaitement propres,
qualifiées - bien annotées cliniquement - et non-biaisées. Or
nombre de données médicales sont biaisées, notamment par des
préjugés lors de leur recueil - préjugés qui ne sont pas
toujours pris en compte par les concepteurs de logiciels et sont
reproduits, voire renforcés par l’algorithme - comme la sur- ou
sous-représentation de certaines catégories de personnes, en
termes d’âge, de sexe, d’origine géographique ou ethnique [3, 8].
- L’apprentissage
automatique profond souffre d’un manque d’explication de ses
décisions (« d’explicabilité ») et de transparence (distincte de
« l’explicabilité » et consistant à rendre public le code-source
d’un algorithme) qui le fait régulièrement identifier à une
boîte noire [19, 31–33],
voire à une alchimie [34]. Il souffre également d’une médiocre
reproductibilité [35]. Pour Stéphane Mallat (professeur de la
chaire « Science des données » du Collège de France), on ne
comprend ni la capacité des algorithmes d’IA de si bien
généraliser à partir d’exemples aussi nombreux soient-ils, ni la
nature des régularités, les structures et les notions qu’ils
découvrent [36]. Dans un récent ouvrage, Olivier Houdé [37]
montre que l’intelligence humaine ne saurait être réduite aux
algorithmes logiques (suite d’opérations logico-mathématiques
élémentaires) de ses circuits longs ni aux intuitions de ses
circuits courts, mais comporte aussi un système d’inhibition -
inexistant dans l’IA - seul capable de bloquer ou de corriger
les biais des réponses cognitives, au cas par cas - selon le
contexte et les objectifs ; c’est cette inhibition qui serait la
clé de l’intelligence dans le cerveau, souligne Jean-Pierre
Changeux dans la préface de cet ouvrage [37]. Ne retrouve-t-on pas, là, Albert
Camus, notant dans « Le premier homme »5, : « Dans certaines
circonstances [...], un homme, ça s’empêche » ? Si
les décisions humaines ne sont pas nécessairement expliquées, il
est toujours possible de dialoguer avec un humain. Partant,
l’opacité des décisions des algorithmes de l’IA a entraîné une
exigence « d’explicabilité » - par le Conseil d’État, la
Commission nationale de l’informatique et des libertés (CNIL) et
un rapport parlementaire - et de transparence par le Règlement
général de protection des données de l’Union européenne [19]. Le CCNE a souligné -
dans ses avis, rapports et États généraux de la bioéthique
[38] - que l’homme doit « garder la main » en IA de la
santé, afin de limiter une déshumanisation par la machine, et de
conserver l’autonomie décisionnelle du
soignant.
- les réseaux de neurones
artificiels de l’IA peuvent être abusés, en analyse d’images,
par de petites modifications de l’orientation ou le
positionnement même d’un petit nombre de pixels [39, 40].
- les modèles de prédiction
- notamment diagnostique, thérapeutique ou pronostique - créés
par l’IA et désignés comme un de ses principaux apports en santé
ont fait l’objet d’importantes réserves : ils reposent, en
effet, davantage sur la seule informatique que sur des modèles
statistiques scientifiquement bien établis, fondés sur des
méthodes de régression, tels que le modèle de la déclaration
TRIPOD (transparent reporting of a multivariable
prediction model for individual prognosis or
diagnosis) [8]. L’évaluation objective des modèles prédictifs de
l’IA et de leur robustesse, par des chercheurs indépendants, a
été jugée absolument nécessaire avant leur usage en pratique
médicale quotidienne [8].
Limites structurelles de l’IA L’IA a été notamment définie par sa faculté de reproduire et de se comparer à
certaines activités cognitives du cerveau humain, mais comparaison n’est pas
raison. La très complexe richesse structurelle du cerveau humain, notamment
celle de ses éléments innés faite de connexions inter-neuronales latérales
et descendantes, explique vraisemblablement sa supériorité, comparée aux
actuels modèles neuronaux artificiels d’apprentissage profond, en matière de
compréhension comme d’apprentissage cognitif [ 41] Questions sémantiques Si, pour certains - y compris des mathématiciens comme Luc Julia, un ancien
de la Silicon Valley - l’intelligence artificielle n’existe pas [ 42], d’autres
préfèrent à ce termed’IA des appellations plus modestes, aux consonances
moins médiatiques, tels qu’apprentissage statistique, apprentissage
automatique, englobant l’apprentissage profond, supervisé (annoté ou
étiqueté par l’homme) ou non supervisé. Pour Stanley Durrleman, chercheur à l’Institut national de recherche dédié
aux sciences du numérique (Inria) et à l’Inserm, on ne peut inclure, dans le
domaine de l’IA, l’apprentissage statistique, donc les réseaux de neurones
artificiels. Pour lui, « ceux-ci sont construits sur les principes
fondamentaux des statistiques [...]; leur développement inspire et
irrigue le champ de l’IA, mais l’un n’est pas réductible à
l’autre » ; « prendre les algorithmes d’apprentissage
automatique pour de l’intelligence artificielle procèderait, ainsi, de
la même confusion que prendre un marteau pour la main qui le tient et le
commande » [43]. Quelle que soit son appellation, l’IA actuelle n’est pas - du moins pas
encore ! - l’IA forte promise, celle capable d’exprimer une conscience de
soi, des sentiments, la compréhension et les preuves de ses propres
décisions, ou de l’intuition lui permettant de réagir correctement dans des
situations non programmées. Partant, la question de savoir si les
algorithmes de l’IA sont plus ou moins « intelligents que les praticiens
humains » - aussi stimulante qu’elle puisse être pour certains, parlant
d’une guerre des intelligences - est jugée, par d’autres, hors de propos
[3]. En 2017, Guy Vallancien,
soulignant qu’il n’y a pas « d’empathie numérique », appelait urgemment à un
« humanisme numérique » et à une conférence sur la régulation de l’IA, y
compris en robotique chirurgicale [44]. En décembre 2018, la France et le Canada ont
annoncé la création d’un Groupe international d’experts en IA (G2IA) -
alter ego pour l’IA du GIEC (Groupe intergouvernemental
d’experts sur l’évolution du climat) - qui aura pour mission de réfléchir
aux enjeux de cette discipline. Médiatisation Une critique importante concerne l’excessif battage médiatique et
publicitaire autour de l’IA, surmédiatisation d’un niveau sans précédent en
santé - même pour les applications cliniques des plus grandes découvertes de
la recherche médicale. Le battage médiatique a « essentialisé » le débat sur
l’IA médicale : d’outil technique, elle est passée à l’état de vérité
première, de principe irréfutable ou inéluctable, pour le plus grand bien
des géants de l’informatique. Présenter les choses comme inéluctables est un
moyen de les rendre telles, en incitant les âmes les moins trempées à
démissionner ; un certain fantasme sert à l’entraînement des consciences et
des volontés. De l’aveu même de chercheurs spécialistes en données massives
[ 8, 17, 19, 24], le battage médiatique sur l’IA a
de loin dépassé l’état de sa science. D’importantes analyses récentes [ 8, 24, 45,
46]
( →) admettent que l’IA médicale, certes très prometteuse,
reste pauvre en données probantes (notamment en données validées en pratique
clinique), qu’elle ne doit pas faire exception aux règles d’évaluation
scientifique en médecine, et doit donc inclure des études prospectives du
type des ECR. Une certaine humilité, vertu importante de la recherche
scientifique, semble, là, souhaitable tout autant qu’une certaine retenue
médiatique [ 33].
(→) Voir l’article Numérique et santé de A. Bril
et al., m/s n° 5, mai 2018, page
448
Symétriquement, la communauté des cliniciens devrait éviter d’être fascinée
par la révolution de l’IA [8, 40], avant l’évaluation impartiale de
ses résultats. Des discordances existent entre les diagnostics cliniques
corrects et ceux issus de dossiers médicaux informatisés ou de données
médico-administratives [40] :
l’implication initiale, dans le recueil de données, des cliniciens de
première ligne s’avère donc indispensable pour arriver à une automatisation
fiable des processus de diagnostic. Quelques aspects éthiques de l’intelligence artificielle
en clinique : garantie humaine Les questions éthiques, de régulation et de protection des données, que pose
l’IA en médecine, ont été largement débattues, notamment par le CCNE [ 38] et dans
médecine/sciences [ 15, 47]
( →), mais quelques points semblent utiles à souligner quant
à son introduction en pratique clinique. (a)
Le clinicien doit connaître le risque de conclusions « non-éthiques » de
l’IA, car les algorithmes ne font pas intervenir de considérations éthiques,
en dehors de celle qu’aura pu introduire dans la machine d’apprentissage
statistique l’expert construisant ces algorithmes.
(b) La formation à l’éthique de ces
experts est donc une question importante, soulevée notamment par la
mathématicienne Cathy O’Neil, experte en science des données : sont
soulignées les possibles disparités et discriminations systémiques,
involontaires ou non, que peuvent créer ou aggraver les algorithmes
alimentés par les données massives [ 48]. (c) De même, le
risque de déléguer toutes les décisions médicales à la machine - faisant
entrer le clinicien dans un mécanisme d’automatisme avec perte de recul
critique - a été bien souligné par Ethik-IA (initiative citoyenne et
académique française, lancée en 2018, et portée par des chercheurs de
diverses disciplines) [ 49] et par le CCNE [ 38] :
ont été proposés une « régulation positive » de l’IA et de la robotisation
en santé, ainsi que des outils et notes de cadrage pour garantir un regard
humain, une « garantie humaine » sur les algorithmes de l’IA [ 38, 49, 50]
( →).
(→) Voir l’article de F. Lesaulnier, m/s hors série
n° 1, mai 2018, page 27
(→) Voir l’article de S. Sacconi et al.,
m/s hors série n° 1, mai 2018, page 42
Pour sa mise en pratique, ont été suggérées la création d’un Collège de
garantie humaine (à l’échelle d’un établissement ou d’un territoire plus
large), ainsi que la définition d’un nouvel acte de télémédecine, dit « de
garantie humaine » - acte préconisé par la Société française de télémédecine
- permettant d’obtenir un deuxième avis médical humain [49]. De fait, avec l’IA, le clinicien
devrait être amené à identifier - avec nuance - les faux diagnostics,
positifs et négatifs et les erreurs ou omissions thérapeutiques commis par
l’IA, erreurs qui remplaceraient, au moins en partie, les erreurs actuelles
des cliniciens, En 2019, une étude d’envergure, menée par des chercheurs français, a analysé
la perception et l’opinion qu’avaient 1 200 patients, atteints de diverses
affections chroniques, de l’usage de l’IA et de dispositifs portables de
surveillance biométrique : 47 % pensaient qu’ils sont un grand progrès,
alors que 11 % y voyaient un danger. 65 % les acceptaient, sous condition
d’un possible contrôle humain : partant, 3 personnes sur 4 refusaient une
automatisation complète [51]. L’affirmation fréquente, selon laquelle le déploiement de l’IA en médecine
clinique libérerait du temps médical et permettrait au clinicien de se
recentrer sur son cœur de métier et d’exprimer davantage d’humanité et
d’empathie à son patient [17], est,
pour nombre de cliniciens, discutable. Ainsi, a-t-il été souligné qu’avec
l’établissement de dossiers médicaux électroniques, les cliniciens de
première ligne passaient le plus clair de leur temps (44 %) sur leur écran
et seulement 24 % de leur temps directement avec leurs patients, abstraction
faite de ce que la rédaction de ce type de dossiers contribuerait à leur
épuisement professionnel [52]. La dépendance généralisée créée par les téléphones
intelligents (smartphones) « tenant en
laisse » leurs utilisateurs ajoute au scepticisme de nombreux
cliniciens. Ainsi l’intelligence clinique pourrait-elle être la garantie humaine de l’IA
en médecine, leur complémentarité devant conduire à une qualité des
décisions et, finalement, des soins, largement supérieure à celle que peut
fournir séparément chacune d’elles [18, 49]. Pour des lycéens
français réunis en 2019 par le CCNE afin d’exposer leurs réflexions, à
l’issue d’un an d’études sur l’impact du numérique en santé, l’IA reste une
technique dont la responsabilité reviendra toujours à l’humain [53]. C’est exactement
dans ce sens, qu’Arnold Munnich conclut son dernier livre : « Ce qui
comptera demain, c’est l’usage humain ou inhumain qui sera fait des
outils que nous laissons entre les mains des étudiants d’aujourd’hui,
médecins de demain » [54]. Intelligence artificielle, conscience et science de la conscience Si l’intelligence humaine est consciente d’elle-même, l’IA actuelle ne l’est pas.
Or, « Science sans conscience n’est que ruine de l’âme » disait
Rabelais dans une lettre de Gargantua à son fils Pantagruel, après lui avoir
demandé d’être un « abîme de science » en maîtrisant autant de
secrets des sciences naturelles qu’il en était enseigné à son époque. Par un
heureux hasard ou une géniale prévoyance de Rabelais, cette citation - depuis
largement exploitée par les moralistes contre ce qu’ils décrivaient comme les
excès de la science et contre les scientistes - a trouvé sa concrétisation dans
le développement d’une « Science de la conscience », notamment depuis la fin du
siècle dernier [ 55,
56]. Stanislas
Dehaene et al. [ 57], notamment, ont examiné les dimensions ou modes
fonctionnels de la conscience humaine - classés en C1 (mode de « disponibilité
globale » des informations) - et C2 (auto-évaluation ou méta-cognition,
introspection et conscience de soi) -, au-delà du mode inconscient (C0) de
traitement automatique de l’information familière par le cerveau humain : ce
n’est qu’à ce mode C0 que correspondent, pour la reconnaissance d’images ou de
sons, les algorithmes actuels d’IA, dépourvus de C1 et C2, soulignent Dehaene
et al. [ 57], qui ont
également minutieusement analysé le chemin qu’il resterait à parcourir pour
répondre à la question initiale que se posait Alan Turing en 1950 [ 58] sur sa machine
informatique : peut-elle penser ? Conception syncrétiste de l’intelligence artificielle Une réponse syncrétiste aux critiques de manque « d’explicabilité » de l’IA est
suggérée par certains chercheurs, pour lesquels l’avenir de l’IA serait de
combiner l’approche connexionniste (ou analogique) et la plus ancienne approche
symbolique (ou logique), qui, bien qu’abandonnée ou simplement « en veilleuse »,
offre l’avantage majeur de permettre de déchiffrer le chemin du raisonnement
[ 59]. Cette
approche hybride tirerait profit des performances de l’une et du raisonnement de
l’autre, et serait particulièrement utile pour exploiter les différents types de
données des patients |
La médecine, au moins pour ce qui est de la clinique dont il a été question ici,
n’est pas - pas encore (?) - soluble dans l’IA, ni réductible au traitement des
données. « Il semble encore trop tôt pour que des preuves scientifiques
orientent définitivement la part du numérique dans la santé »,
soulignait Antoine Bril et al dans
médecine/sciences [46].
La recherche en santé numérique ne peut préjuger trop tôt de ses résultats, comme
elle ne peut échapper au chemin toujours long et à l’esprit critique et de nuance
des sciences. Sur ce chemin, « Plus on avance, plus on a l’impression de ne
pas comprendre, de rechercher une utopie », disait magnifiquement
Philippe Lazar, ancien directeur général de l’Inserm, lors du 30e
anniversaire de la revue en 2015. Comme lui, je citerai là, à nouveau, Albert Camus
: « La lutte elle-même vers les sommets suffit à remplir un cœur d’homme. Il
faut imaginer Sisyphe heureux ». Même si l’IA continue à révolutionner,
à juste titre, le monde autour de nous, y compris le monde médical, notre temps
enivré de technologie devrait - j’emploie là un conditionnel de prudence, par
respect de l’incertitude - tenter de retrouver le chemin d’un peu de cette
sagesse. L’intelligence du cœur sera-t-elle jamais artificielle ? Dans cette attente, la
médecine clinique reste la gardienne d’une certaine douceur des choses, dans la rude
épreuve de la maladie. |
L’auteurs déclare n’avoir aucun lien d’intérêt concernant les données
publiées dans cet article.
|
Footnotes |
1. Verghese
A,
Charlton
B,
Kassirer
JP, et al.
Inadequacies of physical examination as a cause of medical errors
and adverse events: a collection of vignettes . Am J
Med.
2015; ; 128 :
:1322.–4. 2. Clark
BW,
Derakhshan
A,
Desai
SV. Diagnostic
errors and the bedside clinical examination . Med
Clin North Am.
2018; ; 102 :
:453.–64. 3. Chen
JH,
Asch
SM. Machine learning
and prediction in medicine: beyond the peak of inflated
expectations . N Engl J Med.
2017; ; 376 :
:2507.–9. 4. Simpkin
AL,
Schwartzstein
RM, Tolerating
uncertainty: the next medical revolution?
N Engl J Med . 2016; ; 375 :
:1713.–5. 5. Baron
RJ,
Berinsky
AJ. Mistrust in
science: a threat to the patient–physician relationship .
N Engl J Med.
2019; ; 381 :
:182.–5. 6. Teillaud
JL.
médecine/sciences 2019: un espace de débats scientifiques et
médicaux . Med Sci (Paris).
2019; ; 35 :
:7.–8. 7. Du
Gaille M. bon usage
du scepticisme à l’égard des sciences . Med Sci
(Paris).
2017; ; 33 :
:919.–20. 8. Collins
GS,
Moons
KG. Reporting of
artificial intelligence prediction models .
Lancet.
2019; ; 393 :
:1577.–9. 9. Kahn
A. La part de
l’humain dans la médecine de demain . Med Sci
(Paris).
2018; ; 34 :
:283.–4. 10. Simon
P. Télémédecine : enjeux et
pratiques . Brignais: :
Le Coudrier; , 2015 :
:190. p. 11. Espinoza
P. État des lieux
des expérimentations innovantes en télémédecine en France .
Med Sci (Paris).
2018; ; 34((hs1)) :
:33.–5. 12. Leleu
P. État des lieux
des technologies innovantes dans la e-santé . Med Sci
(Paris).
2018; ; 34((hs1)) :
:32.–3. 13. Aymé
S. État des lieux de
la collecte et de l’exploitation des données pour la recherche et la prise
de décision en santé dans les maladies rares en France .
Med Sci (Paris).
2018; ; 34(hs(1)) :
:22.–5. 14. Salamanca
E. État des lieux du
développement de la Banque nationale de données maladies
rares . Med Sci (Paris).
2018; ; 34(hs(1)) :
:26.. 15. Allouche
M,
Hervé
C,
Pirnay
P. Le nécessaire
questionnement éthique autour de la relation de soin en télémédecine
bucco-dentaire . Med Sci (Paris).
2017; ; 33 :
:1105.–9. 16. Nochomovitz
M,
Sharma
R. Is it time for a
new medical specialty? The medical virtualist.
JAMA.
2018; ; 319 :
:437.–8. 17. Topol
EJ. Deep medicine: how
artificial intelligence can make healthcare human again .
New-York: : Basic
Books; , 2019 : :400.
p. 18. Esteva
A,
Robicquet
A,
Ramsundar
B, et al.
A guide to deep learning in healthcare .
Nat Med.
2019; ; 25 :
:24.–9. 19. Topol
EJ. High-performance
medicine: the convergence of human and artificial
intelligence . Nat Med.
2019; ; 25 :
:44.–56. 20. De Fauw
J,
Ledsam
JR,
Romera-Paredes
B, et al.
Clinically applicable deep learning for diagnosis and referral in
retinal disease . Nat Med.
2018; ; 24 :
:1342.–50. 21. Wolf
B,
Scholze
C. Médecine 4.0 ou
de l’importance des nouvelles technologies dans la médecine moderne : le cas
de la chimiothérapie personnalisée . Med Sci
(Paris).
2018; ; 34 :
:456.–61. 22. Schrider
DR,
Kern
AD. Supervised
machine learning for population genetics: a new paradigm .
Trends Genet.
2018; ; 34 :
:30.–12. 23. Stoeklé
HC,
Forster
N,
Charlier
P, et al.
Le partage des données génétiques : un nouveau
capital . Med Sci (Paris).
2018; ; 34 :
:735.–9. 24. Topol
EJ. A decade of
digital medicine innovation . Sci Transl Med.
2019; ; 11 :
:eaaw7610.. 25. Polton
D. Les données de
santé . Med Sci (Paris).
2018; ; 34 :
:449.–55. 26. Dupont
Beresniak A,
Kalra
D, et al.
Intérêt des dossiers de santé électroniques hospitaliers pour la
recherche clinique : le projet européen EHR4CR . Med
Sci (Paris).
2018; ; 34 :
:972.–7. 27. Berrouiguet
S, Le
Moal
V,
Guillodo
E, et al.
Prévention du suicide et santé connectée : vers la
personnalisation des soins ?
Med Sci (Paris).
2018; ; 34 :
:730.–4. 28. Postel-Vinay
N,
Reach
G,
Eveillard
P. Observance et
nouvelles technologies : nouveau regard sur une problématique
ancienne . Med Sci (Paris).
2018; ; 34 :
:723.–9. 29. Dagher
G,
Lavitrano
ML,
Hofman
P. Le
next-generation biobanking : un défi des données numériques .
Med Sci (Paris).
2018; ; 34 :
:849.–51. 30. Thiébaut
R,
Thiessard
F. Artificial
intelligence in public health and epidemiology .
Yearb Med Inform.
2018; ; 27 :
:207.–10. 31. Castelvecchi
D. Can we open the
black box of AI ?
Nature.
2016; ; 538 :
:20.–3. 32. Voosen
P. The AI
detectives . Science.
2017; ; 357 :
:22.–7. 33. Reyzin
L. Unprovability
comes to machine learning . Nature.
2019; ; 565 :
:166.–7. 34. Hutson
M. Has artificial
intelligence become alchemy ?
Science.
2018; ; 360 : :478.. 35. Hutson
M
Artificial intelligence faces reproducibility
crisis . Science.
2018; ; 359 :
:725.–6. 37. Houdé
O. L’intelligence humaine
n’est pas un algorithme . Paris: :
Odile Jacob; , 2019 :
:248. p. 38.
Comité consultatif national d’éthique pour les sciences de la vie et de
la santé (CCNE). 1. Avis 129 : Contribution du CCNE à la révision de la loi
de bioéthique. 18 septembre 2018, 160 p. 2. Rapport Numérique et santé :
Quels enjeux éthiques ? Pour quelles régulations ? Kirchner C, Gruson D. 19
novembre 2018, 100 p. 3. Bioéthique. États généraux 2018 : Rapport de
synthèse du CCNE: opinions du comité citoyen. 220 p. 4. Avis 130. Données
massives et santé : une nouvelle approche des enjeux éthiques. 29 mai 2019,
92 p.
39. Fralick
M,
Colak
E,
Mamdani
M. Machine learning
in medicine . N Engl J Med.
2019; ; 380 :
:2588.–9. 40. Rajkomar
A,
Dean
J,
Kohane
I. Machine learning
in medicine . N Engl J Med.
2019; ; 380 :
:1347.–58. 41. Ullman
S. Using
neuroscience to develop artificial intelligence .
Science.
2019; ; 363 :
:692.–3. 42. Julia
L. L’intelligence
artificielle n’existe pas . Paris: :
First; ; 2019 :
:286. p. 43. Durrleman
S. Intelligence
artificielle : la grande méprise ?
Libération. hors-Série 2 ; décembre
2018–février 2019; :
:28.–9. 44. Vallancien
G, Homo artificialis :
plaidoyer pour un humanisme numérique .
Paris: :
Michalon; ; 2017 :
:208.p. 45. He
J,
Baxter
SL,
Xu
J, et al.
The practical implementation of artificial intelligence
technologies in medicine . Nat Med.
2019; ; 25 :
:30.–6. 46. Bril
A,
Dollé
L,
Postel-Vinay
N. Numérique et
santé (avant-propos) . Med Sci (Paris).
2018; ; 34 : :448.. 47. Lesaulnier
F. Recherche en
santé et données personnelles : la nouvelle donne .
Med Sci (Paris).
2018; ; 34(hs(1)) :
:27.–8. 48. D’Alessandro
B,
O’Neil
C,
LaGatta
T. Conscientious
classification: a data scientist’s guide to discrimination-aware
classification . Big Data.
2017; ; 5 :
:120.–34. 49. Gruson
D. La machine, le médecin
et moi : pour une régulation positive de l’intelligence artificielle en
santé . Paris: :
L’Observatoire; , 2018 :
:160. p. 50. Sacconi
S,
Mehl
J,
Lenain
C, et al.
E-Santé et innovation thérapeutique . Med
Sci (Paris).
2019; ; 35(hs(1)) :
:42.–5. 51. Tran
VT,
Riveros
C,
Ravaud
P. Patients’views of
wearable devices and AI in healthcare : findings from the ComPaRe
e-cohort . NPJ Digit Med.
2019; ; 2 : :53.. 52. Khan
MS,
Riaz
H. The rise of
documentation and the destruction of modern medicine .
Am J Med.
2019; ; 132 : :407.. 53. Favereau
E. IA, datas et
santé : pour des lycéens marseillais, la responsabilité reviendra toujours à
l’humain . Libération. , 29 mai
2019. 54. Munnich
A, Programmé mais libre :
les malentendus de la génétique .
Paris: :
Plon; , 2016 :
:144.p. 55. Facco
E,
Lucangeli
D,
Tressoldi
P. On the science of
consciousness: epistemological reflections and clinical
implications . Explore (NY).
2017; ; 13 :
:163.–80. 56. Michel
M,
Beck
D,
Block
N, et al.
Opportunities and challenges for a maturing science of
consciousness . Nat Hum Behav.
2019; ; 3 :
:104.–7. 57. Dehaene
S,
Lau
H,
Kouider
S. What is
consciousness, and could machines have it?
Science.
2017; ; 358 :
:486.–92. 58. Turing
AM. Computing
machinery and intelligence . Mind.
1950; ; 59 :
:433.–60. 59. Garnelo
M,
Shanahan
M. Reconciling deep
learning with symbolic artificial intelligence: representing objects and
relations . Curr Opin Behav Sci.
2019; ; 29 :
:17.–23. |