TIC
- Information et Communication
- Informatique
Edito : Les données massives (Big Data) bouleversent les sciences de la vie et la médecine
- Tweeter
-
-
9 avis :
Bien qu’elle soit diffuse et encore peu visible, une révolution est en marche, non seulement dans le domaine de la biologie et de la médecine, mais plus largement, dans l’ensemble du secteur de la santé : il s’agit des données massives (big data). D’après Orange Healthcare, les données de santé devraient être multipliées par 50 d’ici 2020, par le biais notamment des développements de la génomique, des équipements médicaux connectés, de l’informatisation des dossiers patients, ainsi que de l’utilisation des applications mobiles santé et des capteurs d’activité.
Le premier enjeu est d’abord de nature économique car l’exploitation intelligente des données massives est en train de faire tomber les frontières entre disciplines, métiers et pratiques, en permettant de réaliser très rapidement des analyses comparatives sur d’immenses quantités d’informations, ce que l’être humain seul ne peut pas faire. Le résultat de cette avancée scientifique est l’émergence d’une nouvelle médecine « 4P », c’est-à-dire prédictive, préventive, personnalisée et participative.
Selon Statista, le marché mondial de la santé numérique devrait passer de 135 à 233 milliards de dollars d’ici 2020. En 2016, 73 millions d’appareils de santé étaient connectés à travers le monde. En 2020, ils seront 161 millions selon une étude de Grand View Research. Selon la dernière étude de Juniper Research, le nombre d’utilisateurs de m-santé (M-Health) passera, pour sa part, de 50 millions en 2015 à 157 millions dans le monde en 2020. Cette explosion de la médecine et de la santé numériques personnalisées sera d’autant plus forte qu’elle répond aux défis liés à la hausse de la durée de vie moyenne de la population mondiale, qui dépasse à présent les 70 ans et à l’augmentation de la prévalence dans les pays développés des maladies dites « de civilisation » (cancer, maladies cardio-vasculaires, diabète, maladie d’Alzheimer).
Dans moins de 10 ans, la grand majorité des seniors, mais également des patients souffrant de maladies chroniques, seront équipés en permanence de dispositifs portables de surveillance médicale, directement intégrés aux vêtements et dans les objets de la vie quotidienne et connectés à l’Internet des objets de santé (IoT). Ces « wearables » (bracelets, montres, ou vêtements connectés), représentent déjà près des deux tiers du marché des appareils médicaux connectés et ils permettront demain de récupérer en permanence une masse considérable et très précieuse de données médicales et sanitaires.
L’analyse intelligente de ces informations à l’aide de machines dotées d’une puissance de calcul exaflopique et utilisant l’intelligence artificielle aura au moins trois conséquences majeures. Premièrement, elle conduira à repenser totalement la classification des principales pathologies. Deuxièmement, elle permettra de réaliser un vieux rêve de la médecine : concevoir des médicaments sur mesure qui évolueront dans le temps pour chaque patient et chaque pathologie traitée. Enfin, cette généralisation de la santé numérique permettra de recouper un nombre incalculable de types de données et de mettre en œuvre une véritable « prospective épidémiologique » qui pourra, par exemple, mesurer, avant la réalisation d’une infrastructure ou la construction d’une usine, l’impact sanitaire et médical de ces projets sur les populations voisines concernées.
Si cette révolution des « DMM3 » (donnés massives médicales) est possible, c’est parce que les organismes de recherche possèdent à présent une puissance de calcul colossale, associée à des capacités de stockage tout aussi impressionnantes. A Lyon par exemple, la plate-forme européenne d’immunomonitoring « Platine », gérée par le Centre Léon Bérard de lutte contre le cancer et l’Inserm, offre aux médecins un outil très efficace d’aide à la décision thérapeutique en cancérologie et en infectiologie, en permettant l’analyse du statut immunologique initial des patients.
Microsoft et Median Technologies, l'expert français des logiciels d'aide à l'interprétation de l'imagerie médicale en 3D pour la cancérologie, ont conclu en 2016 un partenariat visant à mettre au point de nouvelles méthodes pour la détection, le diagnostic et le suivi des cancers à partir de l'analyse des données massives. Concrètement, Median va installer son système révolutionnaire Ibiopsy, qui est capable de détecter les phénotypes de divers cancers à travers l'extraction et la mesure de biomarqueurs d'imagerie - indicateurs clés pour le diagnostic et le traitement en oncologie - sur la plate-forme cloud Azure de Microsoft. Le but est de proposer, dès la fin 2017, un outil efficace. Comme le précise Fredrik Brag, PDG de Median. « L'utilisation des méthodes de traitement des big data va permettre l'analyse en temps réel de ces biomarqueurs d'imagerie, qui est essentielle pour détecter de manière précoce des cancers et mettre en place de nouvelles stratégies thérapeutiques personnalisées ».
Le mathématicien lyonnais de réputation mondiale, Cédric Villani, est également convaincu que l’exploitation des données massives va révolutionner la médecine et permettre notamment de faire des pas de géant dans la lutte contre le cancer. Il soutient le projet Epidemium, lancé conjointement en 2015 par le laboratoire Roche, en pointe dans les traitements anticancéreux, et La Paillasse, un laboratoire communautaire. Epidemium a pour ambition d’utiliser de façon systématique les données statistiques des grandes bases de données afin de les croiser pour, par exemple, détecter ou évaluer des situations à risque. Parmi les outils novateurs qui constituent Epidemium, on trouve par exemple Baseline, une plate-forme qui développe une base de données issues d'une centaine de pays et recensant une myriade de facteurs de risques liés au cancer : âge, poids, obésité, alimentation, alcool, cholestérol…
Cédric Villani pense que demain, chaque médecin aura son assistant algorithmique qui lui permettra de connaître avec la plus grande précision les probabilités de survenue pour telle ou telle pathologie pour un patient particulier. Une fois la maladie déclarée, ces outils de modélisation mathématique pourront également prédire l'évolution spécifique d'une pathologie chez un malade, en prenant en compte un très grand nombre de paramètres. Enfin, ces mêmes outils pourront également mesurer en temps réel et adapter, si besoin, l’efficacité de la stratégie thérapeutique choisie.
Pour parvenir à cette médecine interactive et entièrement individualisée, les différents acteurs concernés travaillent sur l’harmonisation et l’interopérabilité des données provenant de sources très hétérogènes. Par exemple, Kaiser Permanente a créé un programme intitulé HealthConnect, dont le but est de regrouper tous les rapports et enregistrements de santé au sein d’un même système. Ce programme a déjà permis de réduire les dépenses globales de santé de 1 milliard de dollars aux Etats-Unis.
Autre exemple, à Pittsburgh la Health Data Alliance regroupe et recoupe les données issues de sources variées, incluant les enregistrements de santé, les rapports des assurances, les capteurs d’objets connectés, les données génétiques et même les réseaux sociaux. L’objectif est de dresser le profil le plus complet possible d’un patient, afin de pouvoir lui proposer une prise en charge médicale globale et personnalisée, qui intègre sa personnalité et son histoire individuelle.
S’appuyant sur son ordinateur Watson, IBM travaille sur un outil d’aide à la décision qui saura analyser et comparer les recherches médicales existantes sur n’importe quel sujet afin de synthétiser et de résumer ces informations pour le médecin. Celui-ci pourra alors choisir le meilleur traitement pour son patient, en utilisant ces ressources de recherche intelligente qui lui éviteront de faire de fastidieuses recherches d’information. Fin 2016, Watson a été utilisé par des chercheurs de l’Université de North Carolina School pour superviser 1000 cas de cancer diagnostiqués par des oncologues. Résultat : dans 99 % des cas, Watson a proposé le même traitement que celui des médecins spécialistes... Mais cette expérimentation a montré également que les cancérologues participant à cette étude avaient omis dans 30 % des cas des options envisagées par le logiciel d’IBM. Pourquoi ? Tout simplement parce que, contrairement à Watson, qui avait ingurgité les études les plus récentes, ces spécialistes n'étaient pas toujours au courant, faute de temps disponible, des toutes dernières recherches en oncologie...
Face à ces résultats, l'Association américaine d'oncologie clinique se dit persuadée que des avancées majeures dans le traitement du cancer ne sont possibles que si les oncologues et les chercheurs peuvent avoir accès à l'ensemble des informations qui existent sur la maladie. Elle a créé CancerLinQ, un système d'apprentissage rapide en oncologie. CancerLinQ utilise le traitement analytique du big data pour récupérer les données réelles de patients depuis les dossiers médicaux informatisés. CancerLinQ permettra la mise en jour permanente du dossier médical personnel électronique du patient, ainsi que la surveillance des mesures de qualité clinique en temps réel et l’identification de groupes de patients anonymes partageant les mêmes caractéristiques, permettant aux médecins de comprendre comment d'autres patients similaires aux leurs ont été traités.
Il y a quelques jours, IBM a présenté son projet Watson Clinical Review Imaging, qui sera disponible dans deux ans, et vise à étendre et à généraliser l’utilisation de son outil d’intelligence artificielle Watson à l’ensemble du champ médical, qu’il s’agisse de la recherche ou des applications cliniques. Cet outil croisera les données et remplira les dossiers de santé de patients. À partir de ces croisements, Watson pourra identifier les patients susceptibles d’avoir besoin de soins intensifs.
L’intelligence artificielle sera d’abord utilisée pour diagnostiquer les patients ayant une sténose aortique, c’est-à-dire un rétrécissement aortique. Watson croisera l’imagerie cardiaque avec les dossiers médicaux pour repérer les patients nécessitant un suivi plus poussé. L’objectif étant à terme de repérer les autres maladies cardiaques comme la thrombose veineuse, les troubles de la valve aortique ou la cardiomyopathie, puis d’établir des traitements pour des listes de patients à surveiller qu’elle aura au préalable effectuées. IBM a déjà effectué des tests dans une étude pilote mais a refusé de donner des chiffres sur le nombre de patients qui ont été signalés pour un suivi, se contentant juste de dire que Watson a fait une grande différence.
Soulignons enfin qu’il y a quelques semaines, une remarquable étude présentée par le Docteur François Diévart à l’occasion des Journées européennes de la Société française de cardiologie (JESFC 2017) et qui n’aurait pas été réalisable sans les données massives, a fait sensation et est venue remettre en cause un dogme scientifique pourtant solide.
Selon cette vaste étude canadienne CANHEART, portant sur plus de 600 000 individus, le HDL ne devrait plus être considéré comme un facteur spécifique du risque cardiovasculaire. Habituellement présenté comme le "bon cholestérol", le HDL-cholestérol fait l'objet de recommandations pour augmenter son niveau sanguin, à l'inverse du LDL-cholestérol. Sur cette question, la Haute autorité de santé (HAS) précise qu’un taux de HDL-c ≥ 0,60 g/l (1,5 mmol/l) constitue « un facteur protecteur » de la fonction cardiovasculaire. Ces recommandations s'appuient notamment sur l'étude épidémiologique menée à Framingham, aux Etats-Unis, qui a associé les niveaux les plus bas de HDL à une majoration du risque cardiovasculaire, indépendamment des autres facteurs de risque, comme le LDL.
Mais cette étude CANHEART (Cardiovascular Health in Ambulatory Care Research Team), menée par Dennis Ko et ses collègues de l'Institute for Clinical Evaluative Sciences de Toronto (Canada) vient de bouleverser ces certitudes bien établies. Ce travail a analysé les données de 631 000 individus qui ne présentaient pas d'antécédents de maladie cardiovasculaire et étaient âgés en moyenne de 57 ans. Cette cohorte dont les patients présentaient un taux de HDL moyen de 0,55 g/L a été suivie pendant cinq ans.
Cette étude montre qu'un faible taux de HDL (< 0,51 g/L) est bien corrélé à une mortalité accrue, toutes causes confondues. A l’opposé, un niveau élevé de HDL est associé à une majoration de la mortalité non cardiovasculaire, pour un HDL > 0,70 g/L chez les hommes et un HDL > 0,90 g/L chez les femmes. L'effet préventif du HDL apparaît pour des taux compris entre 0,51 et 0,90 g/L, la mortalité d'origine cardiovasculaire étant alors au plus bas. Selon le Docteur Diévart, « cette étude rendue possible par les big data change la donne en montrant qu’il existe une relation complexe entre le HDL et que le pronostic et que le HDL ne peut plus être considéré comme un facteur de risque cardiovasculaire ». Ce récent exemple, qui a beaucoup impressionné la communauté scientifique, montre à quel point l’exploitation généralisée des données massives ne modifie pas seulement l’ensemble des perspectives thérapeutiques mais remet en cause les fondements même de la connaissance scientifique et médicale.
Il ne fait à présent plus de doute que dans des maladies graves mais complexes, dans lesquelles sont impliqués de très nombreux facteurs biologiques, génétiques et environnementaux, je pense notamment au cancer et à la maladie d’Alzheimer mais aussi à l’autisme ou à la dépression, l’exploitation des donnés massives à l’aide des nouveaux outils d’intelligence artificielle de type Watson va permettre des avancées majeures, tant sur le plan fondamental, que clinique et thérapeutique.
Face à cette immense révolution de la connaissance qui a commencé, notre Pays, comme le souligne avec force Cédric Villani, doit absolument se donner les moyens de conserver son excellence dans les domaines de la recherche en mathématiques, mais également rechercher une plus grande indépendance dans le domaine stratégique de la puissance de calcul et des nouveaux outils informatiques, ce qui suppose une recherche européenne plus intégrée, plus puissante et plus visionnaire.
Très concrètement, l’Europe doit tout mettre en œuvre pour se doter la première des futures machines à la puissance de calculs exaflopiques qui vont permettre, en traitant mille fois plus rapidement qu’aujourd’hui les données massives biomédicales, une accélération fantastique dans la connaissance des mécanismes les plus complexes du vivant. C’est à ce prix que nous pourrons demain faire face aux immenses défis humains, économiques et sociaux liés au vieillissement, que va devoir affronter notre société au cours de ce siècle.
René TRÉGOUËT
Sénateur honoraire
Fondateur du Groupe de Prospective du Sénat
Noter cet article :
Vous serez certainement intéressé par ces articles :
Edito : L'IA réinvente le vivant...et les médicaments
CAMPAGNE de DONS Total des dons reçus depuis le début de la campagne : 5.622,00 € = 89,95 % Objectif à atteindre en cette cinquième semaine de la campagne de dons : 6.250,00 € Cette cinquième ...
L'ordinateur quantique franchit la barre des 1000 qbits
Les chercheurs de la TU Darmstadt ont franchi une nouvelle étape vers un ordinateur quantique opérationnel en atteignant le seuil des 1000 qbits. Les processeurs quantiques basés sur des réseaux ...
Une puce neuromorphique pour détecter les anomalies cardiaques
Le CEA-Leti et le Centre de nanosciences et de nanotechnologies ont conçu une puce neuromorphique embarquant une IA bayésienne, capable de détecter et de classifier des anomalies cardiaques. Le ...
Recommander cet article :
- Nombre de consultations : 742
- Publié dans : Informatique
- Partager :