IA & Santé : la question de l'éthique

Publié le 05 août 2021
17 minutes de lecture
[DG]OpenStudio_VisuelLab_IAMedecine

De nombreuses questions éthiques gravitent autour de l’intelligence artificielle, tout particulièrement dans le domaine de la santé. Si cette technologie peut permettre de grandes avancées médicales et l’amélioration des prises en charges individuelles, elle provoque aussi la méfiance du public et des professionnels de santé. Il va de soi qu’une erreur médicale causée par une IA connaîtra un impact plus grand que dans tout autre domaine : les freins du développement de l’IA en santé sont bel et bien liés à la nature même de l’activité concernée. La réflexion éthique doit donc se trouver au centre des avancées de l’IA en médecine. 

Pour cette raison, les auteurs se questionnent continuellement afin de faciliter l’amorcement de cette technologie dans le monde de la santé. Responsabilité, gestion des données et biais de ces dernières, explicabilité et compréhension des méthodes employées, risques et craintes liées à ceux-ci… Découvrons ensemble les principales problématiques éthiques posées par l’IA dans le domaine médical, ainsi que certaines des recommandations faites dans le sens d’une meilleure acceptation de cette technologie. 

La question de la responsabilité

Selon le Dr. Loïc Etienne (1) l’introduction de l’intelligence artificielle dans le domaine de la santé crée une médecine 3.0 qui comprend non seulement patients et médecins, mais aussi machines. Dès lors, la question de la responsabilité a évolué. Alors que le médecin était jugé responsable de potentielles erreurs dans le domaine, il n’est aujourd’hui plus aussi évident de pointer du doigt la personne (ou machine ?) à condamner en cas de problème. Pour cause, la robotisation de certaines tâches complexes, que l’on considère comme nécessairement humaines, par exemple, la prise de décision en situation d’incertitudes.

J’ai plus de questionnements sur la problématique de la responsabilité et du risque. C’est ce qui m’inquiète le plus, car on ne peut pas garantir à 100 % qu’un algorithme ne fera pas prendre de mauvaises décisions.

Robert Boualit, créateur de Solutions Santé Digitale

Pour autant, il n’est pas non plus possible de garantir que la décision prise par un professionnel de santé ne comporte aucun risque. Dans l’imagerie médicale, domaine où l’IA s’est déjà bien installée, elle contribue à réduire le taux de faux diagnostics négatifs, en obtenant de meilleurs résultats que l’œil humain. Par exemple, une publication germano-franco-américaine dans Annals of Oncology, a comparé les résultats d’une IA à ceux de dermatologues sur les lésions de la peau et grains de beauté. L’IA est parvenue à détecter 95 % des mélanomes contre 87 % pour les dermatologues. (2)

Les chiffres s’inversent néanmoins pour les plates-formes d’aide au diagnostic disponibles en ligne. Si celles-ci aident les professionnels de santé à orienter certains patients, elles ne sont toutefois pas garanties. Les médecins ont en effet 72 % de chances d’établir le bon diagnostic du premier coup, contre seulement 34 % pour ces applications. La problématique, ici, concerne également la responsabilité. En effet, ce type d’application place le patient au cœur de son parcours de santé, et le rend en partie responsable de ses choix suite à un diagnostic non humain. Cela rejoint les dires de Benjamin Dalmas, que nous avons interrogé dans le cadre d’un futur livre blanc sur l’IA et la santé. Selon lui, les objets connectés posent eux aussi la question de la responsabilité, puisque le patient devient responsable dès lors que sa montre l’avertit d’un éventuel problème de santé. 

Plus on met le patient au centre de son parcours de soins, comme c’est déjà le cas avec les objets connectés, plus il est au centre de ses responsabilités. Et s’il n’agit pas, il est compliqué de savoir qui est réellement responsable. C’est peut-être la raison pour laquelle l’IA est aujourd’hui plus présente du côté des établissements et des praticiens, car ce souci de responsabilité n’a pas encore été résolu.

Benjamin Dalmas

Des recherches réalisées au sein de la CERNA ont été présentées par Christine Balagué au Colloque ESSI 2018 « Intelligence Artificielle pour l’Homme et sa Santé ». (3) Concernant la question de la responsabilité, deux recommandations ont été faites aux chercheurs du domaine de l’IA en santé. D’abord, pour faciliter l’attribution des responsabilités, l’établissement d’un mécanisme de contrôle automatique ou supervisé sur les données, le fonctionnement au niveau informatique et sur le raisonnement de suivi. Ensuite, une déclaration des intentions d’usage de la part du chercheur. L’absence d’une telle déclaration ou d’une déclaration tardive peuvent engager davantage la responsabilité du concepteur.

Dans son intervention lors du Colloque DRIAS (Droit, IA et Santé) 2021, Brunessen Bertrand, professeur en droit public, a abordé le “Cadre et les enjeux juridiques européen de l’IA en matière de santé”. Selon elle, il faut avoir du recul sur un phénomène afin de pouvoir produire du droit, c’est-à-dire savoir si les règles juridiques existantes sont suffisantes ou s’il est nécessaire d’en créer de nouvelles. Concernant l’IA dans le domaine de la santé, Brunessen Bertrand rappelle qu’une trop grande réglementation risque de freiner les innovations technologiques. La question est donc de savoir jusqu’où il faut contraindre, en trouvant un équilibre entre le droit et le développement du marché intérieur de l’IA : un prisme économique est à prendre en compte. L’autorégulation est ainsi la norme actuelle dans la plupart des pays en concurrence sur l’IA. Pourtant, l’Europe a tendance à appliquer une régulation plus importante dans ce domaine que d’autres grandes puissances. L’enseignante en droit public explique que si l’IA peut intervenir en Europe comme aide aux diagnostics, à la décision et au traitement, elle n’a aucunement vocation à se substituer à la prise de décision et à devenir autonome. Il s’agit d’une « médecine augmentée », qui laisse toute sa place à l’humain dans l’utilisation de l’IA. Cependant, les questions de droit subsistent : Comment le droit peut-il permettre de protéger les droits fondamentaux (Egalité, liberté d’expression, etc.) ? Comment créer un cadre qui résiste à l’épreuve du temps, alors même que cette technologie évolue très vite ? Pour le moment, la RGPD régit l’IA en droit Européen et une réglementation générale de cette technologie s’applique à tous les secteurs qu’elle concerne. Le principe de cette législation résulte d’une volonté de créer de la confiance chez les utilisateurs de l’IA, aussi bien du côté des professionnels que de celui du grand public. Cette régulation est asymétrique car la commission classe les IA selon leur niveau de risque : une IA au risque trop élevé sera interdite (systèmes qui risquent de manipuler les personnes et/ou d’en exploiter la vulnérabilité, etc.). 

Les questions de responsabilité restent un vrai sujet en médecine. Pour l’instant c’est le médecin qui est responsable, mais en cas de problème, est-ce que le concepteur de l’algorithme, par exemple, ne serait pas remis en cause ? Si la question reste entière, il paraît important de proposer une supervision humaine aux décisions établies par des algorithmes d’IA. Il est également bon de rappeler qu’à l’heure actuelle, les technologies d’IA n’ont pas la main mise sur la sphère médicale : l’humain reste au centre de ce domaine et n’est pas encore prêt à céder sa place aux machines.

Le risque, l’IA est-elle infaillible ?

L’intégration de l’intelligence artificielle dans le domaine de la santé est susceptible d’annoncer de nombreux risques, qui peuvent remettre en question l’utilisation de cette technologie. Dans son livre Les sorciers du futur (1), le docteur Loïc Etienne en explore une partie.

Image générée par Dall E

D’abord, la déshumanisation des soins de santé, avec une médecine qui s’éloigne de la relation soignant/soigné. Le Docteur Etienne précise que ce risque n’est pas d’actualité et d’autres auteurs s’accordent sur ce point : pour le moment, les technologies d’IA utilisées en santé ont l’effet inverse. Elles permettent en effet aux soignants de se concentrer davantage sur leurs patients, en leur dégageant un temps précieux. Pour reprendre l’exemple de l’imagerie médicale et de l’aide au diagnostic, l’IA est capable d’accélérer fortement les temps d’analyses des images médicales, et donc de libérer les praticiens d’une tâche longue et complexe, qui leur prenait jusqu’alors du temps qu’ils peuvent aujourd’hui utiliser pour réduire les délais d’attente des patients, par exemple. L’intelligence artificielle serait donc, au contraire, susceptible de remettre la relation humaine au cœur des soins de santé.

Selon moi, le premier frein, c’est le risque. Dans le domaine de la santé, l’erreur peut coûter très cher. La mesure et l’analyse des risques sont donc des facteurs cruciaux.

Robert Boualit, créateur de Solutions Santé Digitale

D’autres risques apparaissent pourtant : et si l’algorithme se trompait ? Et s’il s’agissait d’un faux négatif… ? Toutefois, si l’on ne peut garantir la fiabilité totale d’une IA en santé, cela n’est pas non plus possible auprès d’un professionnel de santé, qui reste humain et est susceptible de commettre des erreurs. Comme le dit le docteur Etienne, la recherche forcenée du risque zéro n’est demandée qu’aux machines. Il ajoute d’ailleurs que l’intégration de l’IA en santé n’est pas synonyme d’un arrêt total d’erreurs médicales ou encore de transhumanisme, avec une prévention des maladies dès le plus jeune âge, pour repousser toujours plus notre espérance de vie. Selon Loïc Etienne, les risques principaux résident dans le transhumanisme et “la mort de la mort”, des dérives sur lesquelles il faut garder un œil vigilant.

Les données médicales, un sujet sensible

D’autres risques gravitent autour de l’intelligence artificielle en santé. Ils concernent alors les données, principalement dans leur aspect massif, et donc dans les techniques de stockage, mais aussi dans les biais qui peuvent y être présents.

Le stockage des données

Au vue de la quantité de données (souvent personnelles) que nécessite l’IA pour apprendre et fonctionner, cette technologie doit nécessairement être une innovation bénéfique au domaine de la santé. Pour apprendre et fonctionner, les machines d’intelligence artificielle doivent en effet être alimentées non seulement d’une quantité de données impressionnantes, mais aussi de données très précises et qualitatives. Ainsi, l’une des craintes principales de la population s’avère être l’utilisation malveillante de leurs données personnelles, ou encore une fuite de ces dernières.

En France, c’est la plateforme Health Data Hub qui regroupe toutes les données des organismes publics de santé afin de les mettre à disposition d’une sélection de projets de recherche (publics et privés) qui relèvent de l’intérêt général et sont soumis à l’approbation de la Cnil. La loi de santé de 2019, quant-à-elle, annonçait la création, pour chaque citoyen français, d’un espace numérique de santé (ENS) qui centralise les données et permet à son titulaire d’accéder à ses données administratives, à son dossier médical partagé, à son dossier pharmaceutique et aux remboursements de ses dépenses de santé. Il est également possible d’y ajouter soit-même les données récoltées par les objets connectés.

Cette quasi-automaticité de la mise à disposition des données personnelles, mais également le nombre massif d’informations disponibles ne sont pas sans risques pour les individus, qui sont susceptibles d’être identifiés, et dont l’état de santé et les habitudes de vie peuvent être connus. Cela implique un problème de confiance, parfaitement illustré par un sondage réalisé par Odexa en 2017, selon lequel 83 % des Français accepteraient de partager leurs données de santé anonymement si (et seulement si) elles permettaient d’améliorer les diagnostics et/ou les traitements médicaux, ou aidaient à progresser rapidement en recherche médicale.

Le caractère sensible de ce type de données explique en effet le souhait (et la nécessité) d’une anonymisation des informations transmises. Car le risque est présent, et nous a été confirmé avec l’immense fuite de données de santé confidentielles révélée en 2020 par Libération. Presque 500 000 patients français étaient concernés par cette fuite d’informations, parfois très personnelles, relevant pourtant du secret médical. Pour autant, une telle fuite ne représente pas la norme. La loi de santé de 2019 prévoyait d’ailleurs des gardes fous juridiques, visant à conserver les données de santé des patients dans un cadre médical. L’accès aux données est ainsi conditionné par le respect de la loi informatique et libertés qui encadre, en France, le traitement des données personnelles ; les traitements effectués sur les données mises à disposition par le SNDS, quant-à-eux, « ne peuvent avoir ni pour objet ni pour effet de porter atteinte à la vie privée des personnes concernées. Ils ne doivent en aucun cas avoir pour fin l’identification directe ou indirecte de ces personnes.» ; enfin, ceux qui accèdent aux données sont tenus au secret professionnel.

Nous n’avons que faire des données comme l’adresse, le numéro de téléphone, le poids, la taille, le sexe… D’un point de vue commercial, ces données ne nous intéressent pas. Ce qui nous intéresse, c’est la valeur des données médicales.

Pierre Paul Goiffon,  directeur général et cofondateur de la société @-Health

Il est également important de noter que, contrairement à l’opinion publique, l’utilisation des données de santé est largement encadrée par la RGPD, qui protège les utilisateurs. Il existe en effet une crainte sur la potentielle utilisation malveillante de ces données personnelles, qui reste aujourd’hui infondée. Depuis son entrée en vigueur en 2018, la RGPD fait office de cadre juridique pour la collecte et le traitement de toutes données personnelles en Union Européenne, et empêche ainsi l’utilisation malveillante de ces dernières. Cet encadrement juridique permet de rassurer les utilisateurs, notamment dans le cadre de la santé. Selon l’article 5.1 du RGPD, les données personnelles doivent être traitées de manière licite, loyale et transparente ; collectées à des fins déterminés, explicites et légitimes ; adéquates, pertinentes et limitées ; exactes et tenues à jour ; conservées pendant une durée raisonnable et traitées de façon à garantir leur protection. 

Finalement, les questions éthiques résultant du stockage de données ne concernent pas réellement l’intelligence artificielle en elle-même, mais l’importance et la sensibilité de telles informations. C’est d’ailleurs ce que nous a confirmé Emmanuel Cuny, neurochirgien au CHU de Bordeaux lorsqu’on nous l’avons interrogé sur ce sujet : 

Je ne pense pas que l’intelligence artificielle pose de problèmes éthiques. Ce qui pose un problème éthique, ce sont les volumes de données et le fait que, pour beaucoup, ces données soient difficilement anonymisables si l’on souhaite les traiter correctement. Finalement, nous avons un problème éthique qui est un problème de gestion de données de santé et de confidentialité de ces données. L’intelligence artificielle en elle-même n’a rien à voir avec tout ça, si ce n’est qu’elle gère effectivement de plus grandes bases de données.

Emmanuel Cuny

Les biais, une problématique importante à résoudre

Malgré les progrès en algorithmie, et qu’il s’agisse ou non de la santé, les données biaisées existent et sont susceptibles de donner des résultats non fiables. Cet autre risque lié aux données de santé n’est pas des moindres, car il peut en effet entraîner des discriminations potentielles concernant l’accès aux soins. Or, comme nous le dit Benjamin Dalmas, enseignant-chercheur à l’École des Mines de Saint-Étienne :

On ne peut pas se permettre d’avoir des biais dans des méthodes d’intelligence artificielle en santé. La machine peut faire des erreurs, mais il ne faut pas que ce soit à cause de ces raisons-là.

Benjamin Dalmas

Puisque les systèmes sont conçus par des Hommes, il est alors fortement recommandé aux chercheurs d’éviter les effets d’opinions encapsulées par les algorithmes. Christine Balagué a également exposé des recommandations lors du Colloque ESSI 2018 « Intelligence Artificielle pour l’Homme et sa Santé ». (3) Elle explique l’importance de s’assurer que la base de données de départ n’est pas biaisée, mais aussi qu’elle reflète la diversité des utilisateurs potentiels du système. Un point particulier est accordé aux données comportant un risque de discrimination (genre, origine, handicap…). Il est ainsi suggéré de ne pas mémoriser ces variables, ou de les sécuriser et de les anonymiser

De nombreux travaux voient le jour, concernant ce deuxième versant de l’IA, pour déterminer comment retirer le racisme, le sexisme, et tous les autres biais des machines. Une première option est à réaliser au niveau des données, car lorsqu’une machine présente des biais, c’est que les données qui lui ont été fournies étaient elles-mêmes biaisées. La machine se dit alors que c’est une logique qui tient la route, et elle reproduit ces biais par défaut : c’est l’aspect négatif des méthodes d’intelligence artificielle. La deuxième option, c’est de travailler directement sur les méthodes d’IA pour qu’elles intègrent, dans leur raisonnement même, le fait de ne pas discriminer. Quelle que soit l’option choisie, c’est un travail absolument essentiel.

Benjamin Dalmas

La compréhension, clé de voûte de l’intégration de l’IA en santé

La compréhension, allant de paire avec l’explicabilité, est un autre point fondamental de l’éthique concernant l’IA en santé. Elle est d’ailleurs l’une des causes principales de la difficulté d’intégration de cette technologie dans ce domaine. En effet, du côté du public, il est difficile d’accepter des technologies que l’on ne comprend pas, surtout s’il s’agit de celles qui sont susceptibles de s’occuper de nos soins de santé, et donc de prendre des décisions sensibles. 

Cela dépend aussi de la typologie de la maladie. Si la machine dit qu’il faut opérer, vous avez bien sûr tout intérêt à savoir pourquoi. Par contre, pour un soin plus banal, comme une prise de sang, où il n’y a pas d’enjeux de vie ou de mort, si vous suivez la décision d’une IA sans qu’elle vous en explique les raisons, ce n’est pas aussi grave.

Benjamin Dalmas

Pour autant, il semble très important de rappeler que l’intelligence artificielle n’a pas vocation à remplacer l’humain dans les soins de santé, mais à l’assister et à le libérer de certaines tâches fastidieuses afin de replacer la médecine dans un cadre plus humain. Il est en effet facile de perdre cet objectif de vue, étant donné l’abondance d’informations maladroites sur le sujet disponible dans les médias. Certaines des craintes du grand public sont d’ailleurs orientées et cultivées par des articles qui parlent de l’intelligence artificielle sans pourtant la comprendre. Il s’agit en effet d’un sujet très complexe, qui selon Benjamin Dalmas, est déjà difficilement compréhensible (mais surtout difficilement explicable) lorsque l’on baigne dedans. 

Aujourd’hui, quand on parle d’IA, on est soit dans le fantasme, soit dans l’autre sens : c’est soit tout noir, soit tout blanc et on retrouve rarement la bonne explication pour nuancer tout ça.

Benjamin Dalmas

Du côté des praticiens, la compréhension est également susceptible de poser problème. Interpréter ce que dit l’algorithme pour savoir quoi faire de ces informations n’est effectivement pas toujours évident. Il faut donc que les technologies d’IA présentes dans la sphère médicale soient un minimum explicables, afin que les professionnels de santé puissent permettre aux patients de participer aux décisions qui les concernent. Par ailleurs, pour les professionnels chargés de développer des algorithmes d’IA, l’explicabilité est aussi une source de grand questionnement. 

C’est un premier problème en IA, de se demander si on s’autorise à mettre en œuvre une idée qui marche très bien, et qui prend peu de risques pour les patients, mais auquel on ne comprend pas grand chose. A l’inverse, on peut avoir un modèle dont tous les résultats peuvent être interprétés, mais dont les solutions ne sont pas toujours efficaces. C’est un compromis qui n’est pas évident, du côté du praticien : quel niveau d’erreur est-ce que j’autorise à l’outil, au prix de la compréhension de l’outil ?

Benjamin Dalmas

La question de la compréhension est donc un paramètre fondamental, à la fois car il n’est pas envisageable d’imposer des décisions inexplicables aux patients, mais aussi du côté des praticiens, qui ont nécessairement besoin de comprendre les technologies d’IA qui les assistent afin de conserver leur professionnalisme et la confiance que nous leur accordons quotidiennement

Par ailleurs, l’essor de l’utilisation d’objets connectés dans notre société impose une compréhension minimale puisqu’avec cette technologie, le patient se place au centre de son parcours de santé. Cela renvoie également à la question de la responsabilité vue plus haut : si votre smartwatch vous alerte d’un potentiel souci de santé pour lequel vous décidez de ne pas agir, alors vous serez responsable de l’issu de ce choix. Pourtant, celui-ci pourrait être orienté par une mauvaise compréhension de l’alerte en question. Or, comme nous l’a signalé Benjamin Dalmas dans son interview, “plus on cherche à rendre les décisions d’une IA explicables, plus on sacrifie sa performance, ce qui n’est pas non plus favorable pour les patients.

“Est-ce que le public préfère une montre qui affirme qu’il y a une arythmie cardiaque, avec 99 % de chance de donner le bon diagnostic, mais sans l’expliquer ; ou bien est-ce qu’il préfère une montre qui explique son diagnostic, qui n’est alors sûr qu’à 70 % ? (…) En réalité, il n’y a pas de compromis à faire. En tant que patients, on ne peut pas sacrifier, je pense, la compréhension. C’est d’ailleurs assez paradoxal, car ce problème de compréhension ne s’applique souvent qu’à la machine. Quand on réfléchit bien, lorsqu’un médecin pose un diagnostic, on lui fait confiance la plupart du temps sans demander d’explications précises, alors qu’on en demanderait à une IA.”

Benjamin Dalmas

Sur ce sujet, Christine Balagué a également exposé des recommandations lors du Colloque ESSI 2018 « Intelligence Artificielle pour l’Homme et sa Santé ». (3) Selon elle, il est ainsi nécessaire de conserver la place de l’humain dans les décisions assistées par des IA, afin d’éviter que des biais ne mènent à des prises de décisions automatiques là où l’humain devait intervenir. 

Il est tout aussi important de préciser qu’en santé, les algorithmes d’intelligence artificielle doivent être développés collaborativement. Si le professionnel de santé n’a pas les compétences requises pour développer seul une méthode d’IA, il en va de même pour le mathématicien. L’innovation, dans le domaine de la santé, doit donc se faire en collaboration entre un médecin et un expert de l’IA, voire même, selon l’IA que l’on cherche à développer, avec un échantillon de patients qui puissent s’assurer que les applications soient en phase avec les besoins du plus grand nombre.

“Le seul frein, c’est effectivement que l’intelligence artificielle n’est pas compréhensible pour quelqu’un qui n’est pas formé sur le sujet. En tant que neurochirurgien, par exemple, je ne peux pas faire d’intelligence artificielle. Il faudrait pour ça que je reprenne de longues études. Il faut par conséquent que je m’adresse à des gens qui savent faire de l’intelligence artificielle, en l’occurrence à des mathématiciens. J’en ai beaucoup parlé avec Nejib Zemzemi*, et les mathématiciens ont d’ailleurs le même problème. Ils ne peuvent pas produire d’intelligence artificielle s’ils ne sont pas au contact du métier et du savoir métier pour lequel elle est demandée.”

Emmanuel Cuny
* Nejib Zemzemi, co-créateur de la startup, est également son Directeur Technique. Il est Docteur en mathématiques appliquées et calcul scientifique et chercheur chez Inria, où il a rencontré Emmanuel Cuny.

La peur d’une santé trop robotisée

Les questions de la responsabilité, des données ou encore de la compréhension font naturellement naître des craintes, aussi bien du côté du public que de celui des professionnels de santé. Selon une étude menée par Oxoda en 2016, auprès d’environ 1 000 personnes, 49 % perçoivent l’IA comme une chance et 50 % comme une menace suscitant la peur. L’intégration de l’intelligence artificielle dans le domaine de la santé est ainsi rendue difficile, autant par l’acceptation d’une telle technologie au plus proche de la vulnérabilité humaine, que par les nombreuses questions qu’elle soulève encore aujourd’hui. 

Certaines de ces craintes restent infondées, souvent orientées par ce qui est dit de l’IA dans les médias. Selon Benjamin Dalmas, l’acceptation de l’IA par le public nécessite alors un travail de vulgarisation sur le sujet, afin de rendre ces nouvelles technologies accessibles, ou du moins compréhensibles auprès du grand public. 

Les patients ne connaissent de l’IA que ce qu’on en dit dans les médias. Leurs connaissances sur le sujet restent donc très limitées, voire faussées, car les médias parlent trop souvent de l’IA pour faire le buzz. Je vous le dis tout de suite : ce n’est pas Terminator qui va nous soigner dans le futur. Finalement, il est peut-être plus délicat de faire accepter au grand public qu’aux professionnels de santé qu’une IA prenne part aux décisions qui les concernent en termes de soins. Il ne s’agit pas d’un travail technologique ou d’avancées scientifiques, mais d’un travail de médiation, de vulgarisation qui n’est pas fait aujourd’hui, dans le domaine de la santé comme ailleurs, pour démystifier l’IA auprès du grand public. Car c’est un fait, l’IA pourrait apporter énormément aux patients, mais les risques éventuels font qu’on ne le sait pas forcément.

Benjamin Dalmas

La peur d’une santé entièrement robotisée à l’avenir n’a pour le moment pas lieu d’être. Lors du cycle de webinars d’AI for Tomorrow, ayant pris place en mai 2020, le docteur Loïc Etienne a justement abordé le sujet. Selon lui, la machine ne peut remplacer l’humain pour quatre raisons : son intelligence est supervisée par l’Homme ; elle ne comprend pas son propre cheminement, et peut au mieux l’expliquer ; elle ne sait pas imaginer et par conséquent, ne sait pas s’adapter à des situations particulières ; et enfin, elle n’a pas conscience d’elle-même. Le Dr. Etienne ajoute par ailleurs que le fonctionnement binaire des machines ne peut être comparé avec les cellules du cerveau humain, qui est une matière bien plus riche et qui, par essence, n’est pas prête d’être dépassée par “des 0 et des 1”. Comme l’a souligné Benjamin Dalmas, l’intelligence artificielle n’a donc pas vocation à remplacer l’humain dans son travail, mais à l’assister. 

Il faut que l’IA s’intègre dans la pratique courante, non pas comme prise de décision, mais comme aide dans la prise de décision.

Benjamin Dalmas

Du côté des professionnels de santé, l’IA inquiète également, bien qu’elle soit porteuse d’espoir. Cela est dû au fait qu’elle ne soit encore que très peu présente dans la pratique médicale, et donc dans le quotidien des médecins en question. Selon une enquête d’opinion réalisée entre mars et juin 2019 (4), sur 187 médecins généralistes, 119 n’ont pas de connaissances sur l’IA, bien que 62 d’entre eux ont déjà utilisé de l’IA dans leur pratique. Pour autant, la majorité d’entre eux (106) sont favorables à cette technologie, contre seulement 20 défavorables (les praticiens restants étant neutres ou sans avis). Par ailleurs, il est important de noter que le milieu médical est un milieu particulier, souvent conservateur. Le déploiement homogène de l’IA y est donc peu probable.

L’intelligence artificielle ne remplacera pas les médecins, mais les professionnels qui l’utilisent vont finir par remplacer ceux qui ne l’utilisent pas.

BENJAMIN DALMAS

Un autre frein au développement rapide de l’IA du côté des soignants, s’avère être leur appréhension de la réaction des patients face à l’usage de l’IA. Selon la même étude (4), 53 sujets appréhendent effectivement des réactions négatives, 63 sujets des réactions neutres et 54 sujets des réactions positives. Pourtant, selon un sondage réalisé par IFOP en 2018 sur les opinions au sujet de l’IA sur la population générale française, 73 % des français ont une bonne image de l’IA et 63 % ont confiance en cette technologie. Ces chiffres démontrent l’amorce de l’acceptation de l’IA dans le domaine de la santé. 

Selon moi, l’intelligence artificielle est, aujourd’hui, trop perçue comme un concurrent de l’être humain, qui cherche à le remplacer dans son travail. Je trouve qu’il est dommage de comparer les résultats d’un humain à ceux d’une IA : il serait plus intelligent de comparer les résultats de l’humain, à ceux de l’humain accompagné de l’IA.

Benjamin Dalmas

Malgré toutes ces questions éthiques, l’intelligence artificielle trouve sa place dans le domaine de la santé. Dès lors que les valeurs fondamentales de la réflexion éthique (Justice, Bienfaisance, Non malfaisance et Respect de la vie des individus) restent au centre des préoccupations, ni le public, ni les professionnels de santé n’ont à craindre cette technologie. Il est alors nécessaire de retenir que l’IA est un outil d’aide à la décision, qui permet ainsi d’éviter l’erreur humaine et de réduire les échecs de la médecine

L’écart intergénérationnel va, lui aussi, effacer certaines craintes. Si vous demandez à la génération Z : “qui est contre la technologie de l’IA dans la vie de tous les jours ?”, peu de jeunes diront être absolument contre. Cette génération est née dedans, donc si l’IA n’est pas acceptée maintenant, elle le sera sûrement dans 20 ans, quand ils seront les professionnels et les patients majoritaires. Il ne s’agit donc pas de savoir si l’IA va être acceptée, mais de savoir quand est-ce qu’elle le sera.

Benjamin Dalmas

Sources

(1)  Loïc Etienne, Les sorciers du futur, 2020.

(2) DAVID GRUSON, L’intelligence artificielle en santé, un potentiel majeur d’innovations pour notre système de santé , Soins, Volume 64, numéro 838, 2019, Pages 33-35. Doi : 10.1016/j.soin.2019.06.006

(3) Enjeux de l’IA responsable en santé (2019)

(4) Benoit Moukrim. Intelligence artificielle en santé : espoirs et craintes des médecins généralistes. Sciences du Vivant [q-bio]. 2019. ⟨dumas-02513615⟩