Jumeaux numériques, essais cliniques simulés, plateformes de services, intelligence artificielle… L’ère de la grande accélération de la santé numérique a commencé. 60 millions d’euros ont été alloués au Programme et équipements de recherche prioritaires (PEPR) dédiés à la santé numérique, piloté conjointement par l’Inserm et l’Institut national de recherche en informatique et en automatique (Inria). Il en résulte un renforcement du leadership français, notamment dans les domaines cardiovasculaire et neurologique, ainsi que la modélisation de données observationnelles et interventionnelles multimodales grâce à l’intelligence artificielle.
Vous pouvez retrouver l’article dans le rapport d’activité de l’institut pour 2021
” Le programme de recherche Santé et numérique est une formidable opportunité pour l’Inserm et Inria d’associer leurs expertises et de monter rapidement en compétences au cours des sept prochaines années. », s’enthousiasme Franck Lethimonnier, directeur de l’institut thématique Technologies pour la santé à l’Inserm. Annoncé à l’automne 2021, ce PEPR, qui s’inscrit dans le cadre de la stratégie nationale d’investissement 2030, sera piloté par deux acteurs de la recherche en santé et numérique en France. ” C’est une opportunité unique de devenir leader dans des domaines de recherche dans lesquels nous avons aujourd’hui des atouts indéniables : le traitement des maladies cardiovasculaires et des pathologies neurologiques. »
L’adhésion du patient et du praticien est essentielle
Plus précisément, le plan s’appuie sur quatre volets : deux programmes méthodologiques visant à améliorer le suivi et la gestion de données hétérogènes, et deux programmes applicatifs, l’un dans le domaine cardiovasculaire et l’autre en neurologie. Des appels à contribution de la communauté scientifique nationale ont été publiés pour identifier des axes de recherche précis, lancer des projets financés pour trois ou quatre ans, des appels à projets ou à manifestation d’intérêt.
” Le projet est ambitieux. Pour y parvenir, il faut d’abord obtenir l’adhésion des patients et des médecins à cet effort de recherche sans précédent dans le domaine de la santé numérique, qui implique notamment l’utilisation des données personnelles de santé, c’est-à-dire des données sensibles. », explique Lotfi Senhadji, directeur du Laboratoire de traitement du signal et des images à l’université de Rennes 1 et responsable du programme Inserm. Il s’agit d’une part d’informer les contributeurs sur la finalité de la recherche (préalablement définie avec les experts), sur les modalités d’exploitation des données qui seront mises en œuvre, et sur le devenir de ces données. D’autre part, il s’agit d’apporter les garanties élémentaires de la sécurité des flux de données, de leur intégrité et de la traçabilité des actions menées dans le strict respect de la réglementation applicable. Pour Franck Lethimonnier, ce programme est d’actualité.
La santé numérique bénéficie à la fois de l’essor des technologies numériques et de l’accumulation massive de données collectées par les professionnels via le Système National des Données de Santé, les cohortes, les objets connectés et les réseaux sociaux.
🔎 Pour en savoir plus sur le big data en santé, consultez notre dossier
Différentes échelles spatiales et temporelles à observer
” Quelle que soit la technologie, qu’elle soit biologique, fondamentale ou biomédicale, il existe déjà une large gamme d’outils capables de capter des informations numériques et des bases de données disponibles à toutes les échelles. »
Cela signifie de l’échelle spatiale la plus basse, l’ADN, puis la cellule, l’organe, jusqu’à l’échelle spatiale la plus haute : le suivi de la population. Mais il s’agit aussi de prendre en compte différentes échelles de temps. De l’ordre de quelques millisecondes, dans le cas d’une dépolarisation d’un neurone ou d’un battement cardiaque excité, à la surveillance de patients malades ou sains pendant 10, 20 ou 30 ans.
Il reste à développer des outils technologiques qui auront la capacité d’observer ces différentes échelles simultanément et avec la vitesse et la célérité des échographes actuels. Cible? Comprendre les changements physiques, physiologiques ou comportementaux dans la logique de diagnostic et de prévention.
” Pour reprendre une métaphore familière, notre ambition est de passer de l’ère de la météorologie locale à l’ère de la climatologie globale grâce à ce programme de recherche prioritaire. ” déclare Franck Lethimonnier.
Traduire les modèles numériques en biomarqueurs
La solution proviendra probablement d’une combinaison d’outils d’intelligence artificielle qui permettront le développement de modèles de connaissances à plusieurs niveaux. C’est là que les méthodes d’apprentissage de l’intelligence artificielle sont appliquées, telles que apprentissage automatique, dans lequel les algorithmes absorbent des ensembles de données massifs basés sur des hypothèses pour, par exemple, apprendre à reconnaître les signes cliniques de la maladie ; Où l’apprentissage en profondeur – apprentissage profond – où les algorithmes travaillent sur des situations non résolues pour identifier de nouvelles relations de cause à effet. Ces modèles numériques seront ensuite convertis en biomarqueurs et en outils de diagnostic et d’aide à la décision en temps réel, lors du choix d’un parcours de soins ou lors d’une intervention chirurgicale.
Première étape : qualifier et améliorer la qualité des données collectées. ” Une quantité importante de données collectées, environ 80% dans les dossiers patients, sont non structurées et transmises sous forme de SMSexplique Marie-Christine Jaulent, directrice du Laboratoire d’informatique médicale et d’ingénierie des connaissances e-santé (Limics) à l’Inserm. Cependant, ces textes ne sont pas des algorithmes directement exploitables et nécessitent un codage sémantique des informations pertinentes présentes dans le texte. »
Normalisation pour soutenir l’interopérabilité des bases de données
L’effort de normalisation de ces codes s’est donc développé depuis de nombreuses années au niveau national et international. Le résultat a été la création de modèles de données structurées (on peut citer le standard FHIR pour Ressources rapides pour l’interopérabilité des soins de santéou le modèle OMOP pour Partenariat pour l’observation des résultats médicaux) et la terminologie et les ontologies pour décrire la signification des codes associés aux données. Cette étape de normalisation est nécessaire pour partager et réutiliser les données pour la recherche. Il permet l’interopérabilité entre différentes bases de données, ce qui conduit finalement à de nouvelles découvertes grâce aux algorithmes d’intelligence artificielle.
En France, des modèles de traitement automatique des langues sont développés pour tirer le meilleur parti des données déjà collectées. Par exemple, le projet Epifractal, porté par l’AP-HP en collaboration avec l’Inserm, via Limics, associe des données pseudo-anonymisées issues de l’entrepôt de données AP-HP de patients atteints d’ostéoporose – âge, sexe, date de fracture, notamment antécédent de fracture. – et l’assurance maladie pour évaluer le taux de nouvelles fractures peu traumatiques. Ce projet a mené au développement d’un algorithme d’apprentissage capable d’identifier automatiquement les caractéristiques significatives des messages d’urgence et orthopédiques. Le médecin généraliste bénéficie ainsi d’un outil d’aide au diagnostic rapide et fiable.
D’autres projets de traitement automatique de texte concernent le suivi de la population. Par exemple, dans le but de prévenir les risques suicidaires chez les jeunes ou de surveiller l’abus de drogues et la survenue d’effets indésirables – à travers le suivi rapproché des échanges sur les réseaux sociaux. Téléexpertise et télémédecine, une nouvelle donne pour le parcours de soins
Enfin, une révolution dans le processus de soins se profile à l’horizon. Avec l’essor de la télé-expertise, qui permet de suivre les patients depuis leur domicile grâce à un appareil connecté capable de générer des alertes pour des niveaux de risque spécifiques. Ou la télémédecine pour un accès direct au médecin depuis la plateforme de services. Avec un bémol éthique évident : l’inégalité d’accès aux soins entre patients des villes et patients des régions reculées, voire entre praticiens disposant des dernières technologies et ceux qui n’en ont pas ou pas. Ces questions et bien d’autres sont débattues au sein du comité d’éthique de l’Inserm.
Les jumeaux numériques prédisent-ils les risques ?
Des représentations virtuelles multi-niveaux du fonctionnement du corps humain pourraient ouvrir la voie à la création de modèles numériques sur mesure, ou jumeaux numériques, qui combineraient plusieurs fonctions dont les paramètres peuvent varier selon les experts. Il existe théoriquement de nombreuses applications en santé. Par exemple, ces jumeaux permettraient d’ajuster les paramètres du stimulateur cardiaque en fonction des données du patient avant son implantation Direct. ” On peut imaginer un modèle numérique du cœur, complété par des simulations qui traduisent les mécanismes autonomes de régulation de la fonction cardiaque ou du système circulatoire. Le jumeau numérique ainsi obtenu serait ensuite relié au jumeau numérique du stimulateur pour affiner virtuellement les réglagesexplique Lotfi Senhadji. Nous avons alors pu observer les réponses du cœur virtuel et corriger les paramètres du stimulateur en amont afin de minimiser les ajustements à apporter au patient après l’implantation. Dans le domaine de la pharmacovigilance, des tests de toxicité du principe actif médicamenteux pourraient également être réalisés sur des jumeaux numériques à différentes doses ; par exemple pour identifier les limites à ne pas dépasser pour un produit ou une combinaison de produits. Le but? Test de concentré Direct sur les doses “intermédiaires” et limiter le recours à l’expérimentation animale dans le cadre des essais précliniques.
Lire aussi

