IA & Santé : mieux comprendre la science des données dans le domaine de la santé
Benjamin Dalmas, enseignant-chercheur à l’École des Mines de Saint-Étienne, concentre ses recherches sur la science des données dans les soins de santé. S’intéressant, entre autres, aux aspects responsables de cette discipline, Benjamin Dalmas a répondu à nos questions relatives à l’éthique et à l’intelligibilité de l’intelligence artificielle en santé.
Votre recherche est axée sur la science des données dans les soins de santé, pouvez-vous expliquer en quoi cela consiste ?
La science des données est un domaine assez vaste. On parle d’intelligence artificielle, mais en réalité, ce champ de recherche est bien plus étendu. Dans la partie IA, mes recherches sont plutôt axées sur les phases en amont, c’est-à-dire sur la collecte des données, sur l’institution, la compréhension des données et sur le pré-traitement, pour l’utilisation dans les futures techniques d’IA.
Comment avez-vous décidé de vous spécialiser dans cette discipline ?
J’ai découvert le domaine d’application de la santé par hasard, en effectuant mon doctorat, qui portait sur l’interface entre l’IA et la modélisation, qu’on appelle le process mining. L’idée, c’était de modéliser et prédire les parcours de soins des patients âgés, qui venaient à l’hôpital. Finalement, j’ai décidé de rester dans ce domaine car j’ai réalisé que l’on retrouve énormément de données, dans la santé. Quand on n’est pas dans ce domaine, on pense que l’on manque de data, ou bien qu’elle n’est pas forcément de bonne qualité, ce qui n’est pas du tout le cas, surtout avec l’avènement des objets connectés. La seule chose, c’est qu’on ne sait pas forcément comment utiliser ces données, qui sont un peu spéciales. C’est une grande question dans le domaine : comment utiliser et interpréter ces données pour alimenter des méthodes d’IA qui soient pertinentes pour les praticiens ? Finalement, c’est ce qui m’a donné envie de continuer de creuser, de manipuler les données de santé pour les fournir par exemple, aux réseaux de neurones que l’on connaît aujourd’hui.
D’une manière générale, quelle serait votre définition de l’IA ?
En voilà une bonne question ! (Rires) Il y aurait la définition qu’on lui donne dans les médias, celle d’un jumeau digital de l’humain, de machines qui pensent comme nous. Cette définition, un peu vulgaire, que l’on donne au grand public est en fait assez éloignée de la réalité. Personnellement, je ne vois aucun intérêt à reproduire ce que fait l’humain dans le domaine de la santé, car il est suffisamment bon dans ce qu’il fait. Je pense plutôt que l’IA est un complément de l’humain, qui tente de percevoir ce que l’Homme ne voit pas forcément, en allant chercher autre chose. Cela s’applique dans le domaine de la santé, avec l’idée d’un praticien augmenté, mais ça peut être le cas dans n’importe quel autre domaine. Selon moi, l’intelligence artificielle est, aujourd’hui, trop perçue comme un concurrent de l’être humain, qui cherche à le remplacer dans son travail. Je trouve qu’il est dommage de comparer les résultats d’un humain à ceux d’une IA : il serait plus intelligent de comparer les résultats de l’humain, à ceux de l’humain accompagné de l’IA.
Quelle place pensez-vous que l’IA devrait avoir dans le domaine de la santé, auprès des médecins, mais aussi des patients ?
Du côté des médecins, je vois l’IA comme un assistant amélioré. Humainement parlant, la santé est un domaine particulier. On ne peut pas dire à des professionnels de santé comment faire leur métier, ils ne l’accepteraient pas, et à juste titre. Il faudrait plutôt leur expliquer qu’ils peuvent être encore meilleurs en se reposant sur certains conseils que peut leur donner une IA. Selon moi, il faut que l’IA s’intègre dans la pratique courante, non pas comme prise de décision, mais comme aide dans la prise de décision.
Du côté des patients, c’est un sujet plus délicat, et cet aspect n’est d’ailleurs pas souvent envisagé. Alors que les praticiens sont plus sensibilisés aux nouvelles méthodologies, les patients ne connaissent de l’IA que ce qu’on en dit dans les médias. Leurs connaissances sur le sujet restent donc très limitées, voire faussées, car les médias parlent trop souvent de l’IA pour faire le buzz. Je vous le dis tout de suite : ce n’est pas Terminator qui va nous soigner dans le futur. Finalement, il est peut-être plus délicat de faire accepter au grand public qu’aux professionnels de santé qu’une IA prenne part aux décisions qui les concernent en termes de soins. Il ne s’agit pas d’un travail technologique ou d’avancées scientifiques, mais d’un travail de médiation, de vulgarisation qui n’est pas fait aujourd’hui, dans le domaine de la santé comme ailleurs, pour démystifier l’IA auprès du grand public. Car c’est un fait, l’IA pourrait apporter énormément aux patients, mais les risques éventuels font qu’on ne le sait pas forcément. Je vais prendre l’exemple des smartwatch, pour imager mon propos. Si une montre est capable de monitorer le rythme cardiaque et qu’elle signale un risque d’arythmie cardiaque, c’est au patient que revient soudainement la responsabilité d’interpréter ce que dit l’appareil, et d’agir. Plus on met le patient au centre de son parcours de soins, comme c’est déjà le cas avec les objets connectés, plus il est au centre de ses responsabilités. Et s’il n’agit pas, il est compliqué de savoir qui est réellement responsable. C’est peut-être la raison pour laquelle l’IA est aujourd’hui plus présente du côté des établissements et des praticiens, car ce souci de responsabilité n’a pas encore été résolu. On retrouve également le risque de la compréhension, c’est-à-dire de savoir interpréter ce que dit votre smartwatch, et de savoir quoi faire de ces informations, ce qui n’est pas toujours évident.
Vous travaillez également sur l’intelligibilité de la science des données. L’une des grandes préoccupations, comme vous venez de le soulever, concerne l’explicabilité des décisions de l’IA. D’après vous, comment rendre la compréhension d’une décision d’IA plus simple auprès du public ?
C’est assez compliqué, parce qu’assez souvent, l’interprétabilité et la performance évoluent en sens inverse. Plus la méthode est performante, plus il va être difficile de la comprendre et de l’interpréter. A l’inverse, plus les méthodes sont simples à comprendre, plus elles sont limitées dans leurs performances. C’est un premier problème en IA, de se demander si on s’autorise à mettre en œuvre une idée qui marche très bien, et qui prend peu de risques pour les patients, mais auquel on ne comprend pas grand chose. À l’inverse, on peut avoir un modèle dont tous les résultats peuvent être interprétés, mais dont les solutions ne sont pas toujours efficaces. C’est un compromis qui n’est pas évident, du côté du praticien : quel niveau d’erreur est-ce que j’autorise à l’outil, au prix de la compréhension de l’outil ?
Du côté du patient, je reprends l’exemple de la smartwatch. Est-ce que le public préfère une montre qui affirme qu’il y a une arythmie cardiaque, avec 99 % de chance de donner le bon diagnostic, mais sans l’expliquer ; ou bien est-ce qu’il préfère une montre qui explique son diagnostic, qui n’est alors sûr qu’à 70 % ? Ce n’est pas évident : même moi, en tant que patient, je serais incapable de me positionner car je veux les deux options. En réalité, il n’y a pas de compromis à faire. En tant que patients, on ne peut pas sacrifier, je pense, la compréhension. C’est d’ailleurs assez paradoxal, car ce problème de compréhension ne s’applique souvent qu’à la machine. Quand on réfléchit bien, lorsqu’un médecin pose un diagnostic, on lui fait confiance la plupart du temps sans demander d’explications précises, alors qu’on en demanderait à une IA. C’est un instinct naturel. Cela dépend aussi de la typologie de la maladie. Si la machine dit qu’il faut opérer, vous avez bien sûr tout intérêt à savoir pourquoi. Par contre, pour un soin plus banal, comme une prise de sang, où il n’y a pas d’enjeux de vie ou de mort, si vous suivez la décision d’une IA sans qu’elle vous en explique les raisons, ce n’est pas aussi grave.
Dans tous les cas, plus on va chercher à rendre les décisions d’une IA explicables, plus on va sacrifier sa performance, ce qui n’est pas non plus favorable pour les patients. L’alternative, au niveau des recherches, c’est de conserver les méthodes les plus efficaces (pas compréhensibles, mais efficaces) et d’essayer d’y ajouter une couche d’explicabilité. Sur les réseaux de neurones, par exemple, on tente de plus en plus de créer des interfaces qui permettent de représenter visuellement les raisons pour lesquelles le réseau a pris une décision ou une autre. C’est un travail très lourd, qui n’est pas évident à mettre en place, mais c’est bel et bien la seule alternative envisageable aujourd’hui pour faire accepter aux patients, ainsi qu’à une partie des professionnels de santé, des solutions d’intelligence artificielle.
Quels sont, d’après-vous, les freins à la démocratisation de l’IA en santé ?
Du côté des professionnels, il y aurait deux freins. D’abord, le coût, car les techniques d’IA développées aujourd’hui restent très chères. Ensuite, l’efficacité relative des méthodes d’IA. Je pense ici à IBM Watson, qui a été un outil très marketé, mais dont les implémentations dans différents hôpitaux ont soulevé quelques questionnements quant à l’efficacité de cette technologie. Lorsqu’on développe une IA, on se concentre généralement sur un établissement. C’est-à-dire que l’on a un jeu de données sur lequel travailler, et on essaye de répondre à une problématique en particulier. Cela peut très bien marcher, mais uniquement dans ce contexte. Lorsqu’on essaye de généraliser une IA dans des établissements qui n’ont pas les mêmes patients, dynamiques, contexte ou environnement, elle est tout de suite moins efficace.
C’est d’ailleurs pour cette raison qu’une majorité des papiers qui sortent sur le sujet ne passent pas à l’implémentation. On retrouve tellement de cas particuliers, que finalement, les hôpitaux ne s’équipent pas : une partie n’a pas été prise en compte, quelque chose ne marche pas dans tel établissement… Il y a un tel travail de pré-processing, de nettoyage de la donnée, que ça devient trop chronophage et que personne ne peut le faire. C’est un premier point un peu malheureux, parce que si je fais simple et rapide, l’IA ne vient pas seule dans le monde de la santé. Il y a tellement d’autres problèmes au niveau des données, dans les hôpitaux et dans le monde de la santé, que si ce travail d’interopérabilité des outils, des données, et de la qualité des données n’est pas fait en amont, l’IA, finalement, ne marchera jamais car la qualité de ce qu’elle produit dépend de la qualité de ce qu’on lui donne à traiter.
Du côté du grand public, démocratiser l’IA voudrait dire pouvoir l’expliquer. Le premier problème, c’est que la plupart des gens qui parlent d’IA ne savent pas ce que c’est, car c’est un sujet très compliqué en soi. Si, aujourd’hui, vous me demandiez ce qui fait partie ou non de l’IA, je serais moi-même incapable de vous répondre, car l’IA n’a pas vraiment de définition. L’intelligence artificielle est un terme fourre-tout, dans lequel nous avons placé tous les algorithmes qui prennent une décision. On retrouve alors des algorithmes avec un raisonnement très simple, ou bien plus évolué, comme des méthodes qui apprennent (réseaux de neurones) ou d’autres qui font de l’optimisation, du raisonnement, des ontologies… C’est donc un terme très large, et il est difficile de savoir ce qui en fait réellement partie.
Si, demain, je vois quelqu’un parler de réseaux de neurones dans les médias, qui est donc bel et bien une technique d’IA, il y a tout de même 80 % de chance que l’article relate de mauvaises informations, car le sujet est très complexe. Dans la santé, c’est encore plus compliqué, car on retrouve un grand nombre de fantasmes sur ce qu’on est capables de faire, qui généralement, ne sont pas tout à fait justes. Pour démocratiser l’IA auprès du grand public, il faudrait réussir à la vulgariser, et non pas à la simplifier comme le font les médias aujourd’hui. Arriver à vulgariser l’IA, cela voudrait dire diffuser l’idée qu’il y a derrière les objectifs de l’IA, tout en conservant dans l’explication le fait que c’est très compliqué à mettre en place. Car il n’est pas normal qu’après avoir lu un article sur le sujet, quelqu’un pense avoir compris tous les enjeux de l’IA. C’est impossible. Il faudrait réussir à sensibiliser le public sur ce que l’IA est capable de faire ou non . Aujourd’hui, quand on parle d’IA, on est soit dans le fantasme, soit dans l’autre sens : c’est soit tout noir, soit tout blanc et on retrouve rarement la bonne explication pour nuancer tout ça. L’intelligence artificielle, c’est très bien quand on développe un bon outil, qui est capable de répondre à une question précise. Par exemple : avez-vous un cancer de la peau ? La réponse de la machine pourra être juste, mais elle ne pourra répondre qu’à cette question. Dans le cas où vous souhaiteriez savoir si vous avez un cancer de la peau au niveau du pied ou de la main, il faudrait développer une autre IA. Donc l’IA est souvent très puissante, mais sur un petit domaine : c’est pour cette raison qu’elle n’est pas prête à remplacer les praticiens, ici les dermatologues par exemple. Et c’est pour la même raison que nous avons du mal à la démocratiser auprès du grand public.
Vous vous intéressez aux aspects responsables de la science des données. Quelle est votre position quant aux questions éthiques liées à l’intégration de l’IA en santé ?
Il existe, selon moi, deux versants de la partie éthique. D’abord, celle qu’on entends en termes de responsabilité, pour la sécurité des données, pour l’utilisation… Il s’agirait ici de la partie “en amont” de l’éthique. En aval, l’éthique concernerait la question des biais, et par conséquent de la confiance que l’on peut donner à la machine sur la restitution des données en termes de discrimination.
De nombreux travaux voient le jour, concernant ce deuxième versant, pour déterminer comment retirer le racisme, le sexisme, et tous les autres biais des machines. Une première option est à réaliser au niveau des données, car lorsqu’une machine présente des biais, c’est que les données qui lui ont été fournies étaient elles-mêmes biaisées. La machine se dit alors que c’est une logique qui tient la route, et elle reproduit ces biais par défaut : c’est l’aspect négatif des méthodes d’intelligence artificielle. La deuxième option, c’est de travailler directement sur les méthodes d’IA pour qu’elles intègrent, dans leur raisonnement même, le fait de ne pas discriminer. Quelle que soit l’option choisie, c’est un travail absolument essentiel. On ne peut pas se permettre d’avoir des biais dans des méthodes d’intelligence artificielle en santé. La machine peut faire des erreurs, mais il ne faut pas que ce soit à cause de ces raisons-là.
La partie en amont, qui concerne la sécurité, est très compliquée car on trouve, dans le domaine de la santé, de plus en plus de données, générées par de plus en plus d’acteurs. D’ailleurs, de plus en plus d’acteurs privés deviennent des acteurs majoritaires dans la santé. Je pense à Amazon health care, à Google health, etc., qui deviennent responsables de la sécurité de ces données. Dans un monde parfait, il n’y aurait pas de problèmes concernant cet immense volume de données. Nous n’avons rien à perdre en partageant nos données, qu’importe le sujet. Si demain, Google a besoin de tout savoir de moi et de ma vie afin de mieux soigner les gens, il serait idiot de ma part de refuser. Mais puisque nous ne vivons pas dans un monde parfait, il faut se poser au moins deux questions. D’abord, que vont-ils faire d’autre, avec nos données ? L’accès à mes données personnelles ne va-t-il pas, en plus d’aider à soigner des gens, permettre de mieux cibler les pubs qui me sont destinées, par exemple ? Ensuite, est-ce parce qu’on est capables de faire quelque chose, que l’on est autorisé à le faire ? Je veux dire par là que, si demain Google annonce pouvoir soigner le sida, rien n’affirme qu’on lui laissera la possibilité de le faire. Voilà selon moi, les deux questions éthiques qui vont conduire la décennie.
Personnellement, je ne me fais pas de soucis sur la faisabilité. Que ce soit dans 5, 10 ou 20 ans, la technologie avance tellement vite, et tellement bien, que nous finirons par couvrir un très grand champ de problématiques. La question pour laquelle il n’y a pas de réponse, c’est est-ce qu’on va se laisser l’autorisation de le faire, et si oui, qui en aura l’autorisation ? Aujourd’hui, c’est l’hôpital qui régit la décision. Mais si demain une IA décide qu’il faut opérer, et qu’il arrive quelque chose pendant cette opération, qui est responsable ? Est-ce l’hôpital, le chirurgien, l’IA, le créateur de l’IA… ? Je pense que tous les cerveaux qui travaillent en IA, dans le domaine de la santé, vont se poser ces questions-là en priorité. Cela fait d’ailleurs partie des freins, dont on parlait tout à l’heure.
Mais la sécurité est elle aussi très importante. Je prends l’exemple du Health data hub, qui avait choisi des serveurs Microsoft pour héberger ses données. Souhaite-t-on vraiment héberger les données de santé de tous les Français sur des plateformes Microsoft, qui étaient, je crois, aux Etats-Unis ? Car la législation américaine n’est pas la même que la législation européenne. Quand bien même ces données étaient stockées en Europe et sous la législation du RGPD, est-il réellement pertinent de choisir un privé pour stocker des données françaises ? Cela soulève également de grandes questions. En soit, ça ne pose pas de problèmes, mais tous les Français ne connaissent pas l’étendue de ce que ces entreprises peuvent faire avec nos données. Le fait qu’ils puissent s’en servir pour un tout autre sujet, c’est ce qui dérange.
L’IA dans le domaine de la santé soulève de nombreuses craintes du côté du public (stockage de données, confiance en la machine, question de la responsabilité…). Pensez-vous que l’on arrivera à dépasser ces peurs pour accepter les éventuels bienfaits de cette technologie ?
Je pense qu’inéluctablement, de choix ou de force, nous allons finir par l’accepter. La vraie question, c’est à quelle vitesse ? Certains pays l’acceptent d’ailleurs plus vite que la France. Je pense aux Etats-Unis, ou à l’Asie, où le contact avec la technologie n’est pas du tout le même que le nôtre.
L’écart intergénérationnel va, lui aussi, effacer certaines craintes. Si vous demandez à la génération Z : “qui est contre la technologie de l’IA dans la vie de tous les jours ?”, peu de jeunes diront être absolument contre. Cette génération est née dedans, donc si l’IA n’est pas acceptée maintenant, elle le sera sûrement dans 20 ans, quand ils seront les professionnels et les patients majoritaires.
Il ne s’agit donc pas de savoir si l’IA va être acceptée, mais de savoir quand est-ce qu’elle le sera, et jusqu’où ? Allons nous uniquement accepter ce qui est acceptable, ou est-ce que les politiques et/ou les entreprises privées vont arriver à faire accepter plus que le raisonnable ?
Selon vous, l’IA va-t-elle devenir indispensable dans les soins de santé ? Si oui, de quelle manière ?
Tout dépend de la notion que l’on donne à indispensable. Je pense que l’on va savoir ce que l’on perd en n’utilisant pas l’IA. L’intelligence artificielle ne remplacera pas les médecins, mais les professionnels qui l’utilisent vont finir par remplacer ceux qui ne l’utilisent pas. Si l’IA permet un gain de 5 % des capacités des médecins à détecter un cancer ou n’importe quelle autre maladie, c’est toujours 5 % de pris. Donc peu importe l’IA, peu importe le contexte, si l’on sait qu’un médecin est capable de faire mieux que d’habitude en utilisant l’IA, par défaut, elle deviendra indispensable. Il faut juste réussir à démontrer l’apport de l’IA dans la pratique quotidienne en santé.