IA & Santé : Les applications d’Intelligence Artificielle qui accompagnent les patients au quotidien

Publié le lundi 12 avril 2021 à 07:20 , mis à jour le lundi 12 avril 2021
11 mins

L’intelligence artificielle (IA) s’est déjà bien installée dans le domaine de la santé. Dans son livre « L’intelligence artificielle en action », Damien Gromier estimait le marché mondial de l’IA dans le secteur de la santé à 6,6 milliards de dollars en 2021, contre 634 millions de dollars en 2014, selon le rapport PIPAME (1). Cette fulgurance des innovations d’IA dans le domaine de la santé est largement justifiée par l’aide concrète qu’elle apporte quotidiennement aussi bien aux professionnels de santé qu’aux patients. Car en effet, l’IA est susceptible de changer, pour le mieux, le quotidien de bon nombre de patients : surveillance des personnes à risque, assistance pour les personnes en situation de handicap, amélioration de leurs interactions sociales… Explorons ensemble les applications d’IA qui accompagnent les malades au quotidien. 

Des applications pour les personnes en situation de handicap 

L’arrivée des smartphones a incontestablement changé nos habitudes. Qu’il s’agisse des GPS intégrés, de l’accès à Internet partout et tout le temps ou encore des nombreuses applications qu’ils proposent, ces outils technologiques nous simplifient bien souvent la vie. Les applications créées pour répondre à des besoins relevant du domaine de la santé sont nombreuses. Parmi elles, certaines utilisent l’intelligence artificielle comme outil pour faciliter le quotidien des personnes en situation de handicap. La technologie se met ainsi au service de ces personnes, trop souvent discriminées en raison de leur condition. Ces applications leur permettent ainsi de réaliser leur potentiel.

L’IA au service des personnes malvoyantes

En 2018, l’OMS rapportait que 253 millions de personnes dans le monde présentaient une déficience visuelle moyenne à sévère, y compris 36 millions d’aveugles. Des chiffres qui justifient le nombre croissant d’applications destinées à cette partie de la population.

Parmi elles, on retrouve Seeing AI, développée par le géant Microsoft, et plus précisément par Sagib Shaikh, ingénieur chez Microsoft Research, lui-même non-voyant. Cette application raconte vocalement à son utilisateur ce que perçoit l’appareil photo de son smartphone. Son intelligence artificielle est ainsi capable de lire des textes imprimés ou manuscrits, des prix, de décrire des objets, des situations, des personnes, des étiquettes ou encore des couleurs. L’application, où « l’innovation est au service d’un monde plus inclusif dans lequel les personnes en situation de handicap gagnent en autonomie » selon Carole Bénichou, ambassadrice Accessibilité chez Microsoft France, a été lancée aux Etats-Unis en 2017. Elle est également disponible en France depuis 2019, mais n’est accessible que depuis iOS. 

L’application Digit Eyes fonctionne de la même manière que Seeing AI, en lisant à voix haute grâce à la caméra. Accessible sur Android et iOS, elle peut être utilisée pour lire le code barre d’un produit et aide ainsi ses utilisateurs à faire leurs courses. Il est également possible de personnaliser la description d’un code barre en enregistrant un message vocal spécifique pour celui-ci.

En 2018, 253 millions de personnes dans le monde présentaient une déficience visuelle moyenne à sévère, y compris 36 millions d’aveugles.

Un système développé par la startup Aira fournit, lui aussi, des informations en temps réel à ses utilisateurs, mais d’une manière bien différente. Le système combine en effet des lunettes connectées, des caméras, de l’intelligence artificielle, mais aussi une assistance humaine. Ainsi, les utilisateurs peuvent être connectés à un employé Aira qui leur décrit leur environnement, les aide à se déplacer et relaie les informations trouvées sur Internet concernant leur situation actuelle. S’ils ne souhaitent pas bénéficier d’une aide humaine, les utilisateurs peuvent également solliciter Chloe, un outil d’assistance virtuelle. Dans tous les cas, ils reçoivent, lors de leur abonnement au système, une paire de lunettes équipées d’une caméra et d’instructions pour les connecter à leur smartphone. C’est en appuyant sur un bouton situé sur les lunettes qu’ils peuvent solliciter un employé d’Aira, et ce, 24/24h. Pour leur venir en aide, ces derniers utilisent le flux vidéo live des lunettes mais aussi des GPS, cartes et informations issues d’Internet. Selon Suman Kanuganti, cofondateur de la startup, l’objectif d’Aira est « d’étoffer l’environnement d’une personne en lui fournissant des informations difficilement accessibles avec les outils d’assistance traditionnels ».

L’IA au service des personnes malentendantes

Selon l’OMS, 1,5 milliards de personnes dans le monde sont atteintes d’une déficience auditive plus ou moins prononcée, dont 430 millions ont besoin de services de réadaptation. L’incapacité d’entendre peut agir de différentes manières sur les individus. Cela peut en effet avoir des conséquences sur ses interactions sociales, et dans sa vie professionnelle. Cette incapacité peut aussi poser problème si l’individu n’est pas en mesure de percevoir les indices environnementaux susceptibles de l’avertir d’un danger. 

Après avoir réalisé qu’il « existe de nombreux cas où les sons ont une importance culturelle ou contextuelle, mais ne sont pas accessibles à tous », l’une des équipes de Microsoft a créé Hearing AI, une application souhaitant connecter les personnes sourdes ou malentendantes au monde du son. Depuis 2016, l’application présente trois fonctions principales : visualisation, notification et transcription. La visualisation permet à l’utilisateur de visualiser les sons environnementaux (activité et volume) afin de jauger l’ambiance d’un lieu. Elle permet également de savoir si le son est élevé au point d’endommager les oreilles.  Les notifications alertent les utilisateurs des changements de fréquence soudains et des sons importants. L’IA auditive repère jusqu’à quatre types d’environnements différents. Enfin, l’application utilise une technologie de retranscription en temps réel des conversations verbales, en retranscrivant, grâce à la typographie, le volume de la parole, une nuance essentielle aux interactions sociales. 

Kaizn, quant à lui, est un assistant personnel d’audition, créé par l’entreprise Oticon. Son intelligence artificielle s’adapte aux habitudes et aux environnements de son utilisateur pour connaître ses préférences selon le contexte sonore, et ainsi régler automatiquement l’appareil auditif. Pour intégrer les préférences de l’utilisateur, l’application collecte et analyse les données relatives à l’utilisation des aides auditives de la gamme Opn et aux environnements d’écoute de la personne. Pour cela, l’outil communique avec l’utilisateur pour apprendre son intention selon l’environnement. Dans un restaurant bruyant par exemple, il cherchera à savoir si l’utilisateur recherche « concentration » ou « confort » et pourra ensuite s’adapter pour les situations similaires futures. 

1,5 milliards de personnes dans le monde sont atteintes d’une déficience auditive plus ou moins prononcée.

Une autre intelligence artificielle, baptisée LipNet, a été créée en collaboration par une équipe de scientifiques de l’Université d’Oxford et de Google Deepmind. Ce programme, capable de lire sur les lèvres sans source sonore, retranscrit les mouvements de lèvres en texte avec un score de 47 % de reconnaissance exacte, contre 24 % pour l’humain spécialiste en la question. Fondé sur un algorithme de machine learning ainsi qu’une base de données de plus de 5 000 heures de vidéo, LipNet est le premier modèle de lecture sur les lèvres travaillant au niveau des phrases. Un programme aux opportunités diverses, pour les personnes sourdes ou malentendantes, mais pas que, puisque les applications qui en découlent sont nombreuses : dictée d’instructions, dictée de message dans un environnement bruyant, transcription et doublages de films, etc.

Dans un autre registre, l’application StorySign vise elle aussi à traduire, mais dans la langue des signes. Lancée en 2018 par Huawei, elle traduit des livres pour enfants en langue des signes. Il est estimé que 90 % des enfants sourds naissent dans des familles qui entendent et qui ne maîtrisent pas la langue des signes française (LSF). Dans ce contexte, en plus de permettre aux enfants sourds et malentendants de s’ouvrir à la lecture en toute autonomie, StorySign est également un bon moyen d’apprendre les mots de base pour les enfants, mais aussi pour les parents. Pour l’utiliser, il suffit de passer le smartphone au-dessus de la page de l’un des livres pris en compte par l’application, qui traduit instantanément en LSF via un petit personnage sur l’écran. 

90 % des enfants sourds naissent dans des familles qui entendent et qui ne maîtrisent pas la langue des signes française.

Quand l’IA fait face aux troubles du langage

Chez les personnes atteintes de troubles du spectre autistique, le défaut de compréhension est susceptible d’augmenter le niveau d’anxiété, ce qui peut donner lieu à des troubles du comportement. Les pictogrammes sur papier ou carton sont alors souvent utilisés pour communiquer.

L’application Helpicto, s’est inspirée de cette idée et a réuni, pour plus de praticités, tous les pictogrammes nécessaires sur le même support. Développée par la société toulousaine Equadex et par le docteur en psychologie Carine Montoulan, l’application offre une meilleure communication et de meilleurs échanges entre les personnes avec des troubles du langage et leur entourage. Ces derniers donnent une information à l’application, qui la traduit instantanément en pictogrammes, puis de façon orale. Ludique et facile à comprendre, Helpicto permet de développer l’autonomie personnelle et domestique. L’intelligence artificielle d’Helpicto continue d’apprendre à chaque utilisation, ce qui permet de l’optimiser toujours plus. Helpicto permet ainsi de recréer du lien et d’éviter l’isolement des personnes atteintes du trouble du langage. 

Les textiles intelligents 

Les textiles intelligents utilisés dans le domaine de la santé sont des outils de prévention. En intégrant des technologies (ici, de l’IA), ils analysent une situation dans le but d’y répondre de manière adaptée. 

L’IA en prévention des accidents cardiovasculaires

Les maladies cardiovasculaires sont la première cause de mortalité mondiale. Rien qu’en France, près de 130 000 AVC sont recensés annuellement. En plus d’être une catastrophe dans le domaine de la santé, ces chiffres coûtent annuellement 10 milliards d’euros à la société. 

La startup française @-Health a ainsi mis au point le dispositif de surveillance médicale CardioNexion. Il s’agit d’un textile intelligent, qui se présente pour le patient sous la forme d’un t-shirt ou d’une brassière. Doté de capteurs, il est capable de surveiller en temps réel et 24/24h, le fonctionnement du cœur à la manière d’un électrocardiogramme (ECG). Cela permet de détecter, avant qu’ils ne se produisent, les accidents cardiovasculaires (AVC, insuffisance cardiaque, etc.). Pour cela, les capteurs mesurent et enregistrent pendant 10 secondes les signaux électriques délivrés par le cœur, qu’ils communiquent en Bluetooth Low Energy au smartphone de l’utilisateur. Ces données sont ensuite transmises toutes les 30 secondes par ondes radio ou Wi-Fi aux serveurs sécurisés d’@-Health, où un algorithme fait le tri. Si un problème potentiel est décelé, le médecin du patient est immédiatement prévenu. Dans les cas les plus graves, les secours sont directement alertés. 

L’IA pour détecter et soigner les infections

Spinali Design, startup spécialisée dans le textile intelligent, s’est associée à l’Inserm de Strasbourg pour développer un pansement intelligent qui détecte et soigne les infections. La startup vise particulièrement les patients vulnérables aux infections ou nécessitant une surveillance particulière, comme les grands brûlés. Pour fonctionner, ce pansement s’applique sur la plaie et s’active par un bouton intégré. Il se connecte ensuite à une application disponible sur smartphone avec laquelle il échange des données. S’il détecte des bactéries pathogènes, il émet un signal lumineux détecté par un capteur qui transmet l’information, via le smartphone, au patient ou son personnel soignant. Cela permet de démarrer au plus vite le traitement anti-infectieux. En plus de prévenir les infections, ce pansement est également en mesure de stopper leur progression grâce à un film biochimique contenu dans le pansement. Celui-ci va entraîner le pathogène à libérer lui-même des agents antimicrobiens, qui vont le tuer.

La robotique

D’autres applications d’IA aident leurs utilisateurs au quotidien sous un format bien différent : la robotique. Qu’il s’agisse de robots médicaux ou de prothèses, ce sous-domaine de l’IA est déjà bien présent sur le marché.

Quand l’humain et l’IA ne font qu’un

Les prothèses intelligentes permettent d’augmenter l’autonomie des personnes amputées. Selon l’École Polytechnique Fédérale de Lausanne (EPFL), près de 4 millions de personnes dans le monde subissent chaque année une opération destinée à remplacer une articulation défectueuse. 

Un bras bionique contrôlé par la pensée a ainsi été développé par le laboratoire de Physique Appliquée de l’Université John Hopkins. Développée par le Dr Mike McLouglin, chef du département d’ingénierie, et son équipe, cette prothèse de membre modulaire (ou MPL) a la particularité de faire ressentir à son porteur la sensation du toucher. Pour que cela soit possible, l’utilisateur doit avoir subi une technique chirurgicale de pointe appelée la réinnervation sensorielle, qui consiste à « cartographier » les nerfs responsables de la sensation du toucher. Cette intervention permet ainsi à la personne amputée de contrôler son bras bionique par la pensée. Selon le Dr McLoughlin, la MPL « interprète et convertit les signaux du système nerveux en mouvements. Quand elle interagit avec un objet, les signaux en provenance de 100 capteurs envoient des informations sensori-motrices au cerveau, créant la sensation du toucher. » La différence fondamentale avec les technologies précédentes, c’est que c’est le bras qui apprend à décoder les mouvements, et non pas l’Homme qui apprend à contrôler le bras. Évidemment, ces prothèses coûtent aujourd’hui des centaines de milliers de dollars, mais ont vocation, selon le Dr McLoughlin, à se démocratiser pour que les gens puissent les utiliser au quotidien.

Près de 4 millions de personnes dans le monde subissent chaque année une opération destinée à remplacer une articulation défectueuse.

De son côté, la startup indienne Inali fabrique des prothèses low-cost en 3D. À l’inverse de notre bras bionique, elles sont légères, faciles à porter, mais surtout accessibles puisque le prix varie entre 250 et 3 400 euros, tout en s’adaptant à la morphologie du patient. Son accessibilité s’explique en grande partie par le fait qu’elle est fabriquée localement. Par ailleurs, chaque bras est modélisé en 3D avant sa fabrication, grâce au 3DEXPERIENCE Lab, une plateforme de Dassault Systèmes. Cette procédure a elle aussi permis d’économiser beaucoup de temps, d’énergie et d’argent. « En Inde, 40 000 personnes perdent leur avant-bras chaque année et 85 % restent sans solution. La majorité de ces patients n’ont hélas pas accès à des prothèses modernes, ces dernières coûtant des dizaines de milliers d’euros », explique Prashant Gade, le créateur de cette startup. Sa prothèse est contrôlée par les impulsions cérébrales : des capteurs enregistrent les signaux nerveux et envoient au processeur l’action à déclencher. Fabriquée en silicone et polyéthylène pour lui accorder légèreté et esthétique, elle renferme un mécanisme interne en acier. D’un poids total de 450 grammes, elle permet de soulever des charges jusqu’à 10 kg, d’agripper des objets ou de bouger les doigts individuellement. 

Les robots médicaux

Plusieurs types de robots médicaux circulent à l’heure actuelle sur le marché. La CAO, ou Chirurgie Assistée par Ordinateur, est par exemple déjà présente dans les salles opératoires. D’autres robots sont conçus pour une finalité bien différente : celle d’assister, quotidiennement, les malades. Qu’il s’agisse d’une présence apaisante ou d’un soignant robotisé, cette technologie fait ses preuves et s’intègre progressivement dans le domaine de la santé.

Le robot émotionnel d’assistance thérapeutique Paro en est l’exemple parfait. Son développement s’est étendu sur 10 ans de recherches et de nombreuses études de validation clinique. D’abord commercialisé au Japon (2005), puis aux Etats-Unis (2009), il est enfin arrivé en France en 2018, année au cours de laquelle plus de 200 établissements français en ont fait l’acquisition

Ce robot à l’aspect animalier vise à offrir aux professionnels de santé un outil non-médicamenteux, bénéfique dans les domaines de la maladie d’Alzheimer et de troubles apparentés, de déficiences motrices et mentales, de troubles du spectre autistique, de la prise en charge de la douleur, de la pédiatrie et de l’oncogériatrie. Alors que son aspect apporte les avantages reconnus de la zoothérapie, sa forme ergonomique, son poids et sa taille (2,5 kg pour 57 cm) permettent quant à eux une prise en main agréable.

La technologie de Paro se base sur 7 moteurs lui permettant de bouger la tête, les yeux, la queue et les nageoires. Il est doté d’une multitude de capteurs (toucher, positionnement, lumière) et de 3 microphones qui interagissent avec son logiciel d’IA pour adapter, en conséquence, les mouvements et l’intonation du robot lorsqu’il entre en interaction proactive (joie, mécontentement, surprise). Paro a également été conçu en prenant en compte les questions éthiques. Il stocke donc les données localement, sans être connecté à Internet.

Ce petit robot remplit aussi bien sa fonction au niveau relationnel qu’au niveau médical, puisqu’il favorise la communication et permet de diminuer les manifestations douloureuses grâce à la distraction qu’il apporte lors des soins quotidiens.

Si ce tour d’horizon des applications de l’IA dans le domaine de la santé nous confirme que cette technologie peut être au service des patients, elle fait toutefois l’objet de craintes. De nombreuses questions gravitent en effet autour de l’intelligence artificielle dans le domaine de la santé : déshumanisation des soins, transhumanisme, stockage de données… Il va sans dire que la réflexion éthique doit rester l’une des préoccupations principales de la mise en place de l’IA dans le domaine de la santé. Pour autant, il est important de garder en tête que l’IA reste, dans ce domaine, un outil d’assistance.

 (1) Intelligence artificielle : État de l’art et perspectives pour la France, Etude Atawao Consulting pour le compte de la Direction générale des entreprises (DGE), le Commissariat général à l’égalité des territoires. https://www.entreprises.gouv.fr/fr/etudes-et-statistiques/dossiers-de-la-dge/intelligence-artificielle-etat-de-l-art-et-perspectives