Conférence Big Data in Biomedicine à Stanford : le monde de la santé en pleine mutation

, Partager

Du 20 au 22 mai dernier se tenait à Stanford la seconde édition d’une conférence intitulée Big Data in Biomedicine, visant, comme son nom l’indique, à présenter l’état de l’art de la révolution grandissante qui secoue le secteur de la santé du fait de l’essor exponentiel de nouvelles technologies ouvrant de nouveaux champs entiers de recherche. Ce fut l’occasion de prendre un cliché saisissant des avancées de pointe de la recherche biomédicale américaine et, plus encore, de saisir l’ampleur des changements structurels, réglementaires, techniques et même psychologiques qu’engendre cette ère nouvelle qui débute.

L’évènement fut organisé en série de conférences à thème, donnant la parole à des acteurs divers sur fond d’enjeux communs. Divers à la fois par leur expertise (génomique, santé publique, statistiques, neuroimagerie, etc.), mais surtout par la nature de leur affiliation, des chercheurs académiques aux institutions fédérales, en passant par des sociétés privées de toutes tailles et des fondations. A défaut d’être exhaustif, il est néanmoins possible de dégager au moins trois grandes tendances à suivre de très près.

Des initiatives publiques et structurelles accompagnent l’innovation

Un des points les plus marquants de la conférence fut en effet la démonstration de la magnitude de la révolution ’numérique’ du champ biomédical aux Etats-Unis, révolution accompagnée par des mesures publiques.

Impossible ici de ne pas revenir rapidement sur la Precision Medicine Initiative annoncée par le Président Obama au mois de janvier 2015 [1] [2], donnant des moyens importants aux acteurs publics (NIH - National Institutes of Health - et FDA - Food and Drug Administration - en tête), afin de paver la voie d’une ’médecine de précision’, médecine prenant en compte des données cliniques, moléculaires (épigénétiques notamment), environnementales et de mode de vie afin de déterminer les caractéristiques et causes biologiques de ce que nous appelons aujourd’hui santé et maladie. Kathy Hudson, responsable de l’implémentation de cette initiative au NIH, mit l’accent durant sa présentation sur les modifications réglementaires nécessaires à l’avènement d’une telle médecine.

Le NIH travaille ainsi à la modernisation de son cadre éthique et réglementaire concernant les essais cliniques et la protection des patients (Common Rule [3]), afin de permettre la récupération de données cliniques et d’en favoriser le partage dans le cadre de programmes de recherche. Annoncée une première fois en 2011, cette modernisation des textes a été relancée par la Precision Medicine Initiative et devrait arriver à son terme prochainement.

Un autre chantier important est le partage public des données issues d’essais cliniques, là encore à des fins de recherche ouverte, permettant à la fois d’éviter un certain nombre d’études en doublon, et surtout la création d’une masse critique de données cliniques exploitables. Le fait est que malgré l’obligation légale à ce sujet, moins de 50% des études financées par le NIH sont aujourd’hui publiées sur le site prévu à cet effet [4], et nombre d’essais cliniques sortent tout simplement du cadre actuel de cette injonction (produits non soumis à réglementation par la FDA, études de Phase I, études de pharmacovigilance).

Le NIH travaille donc à accélérer et permettre la médecine de demain en instaurant le cadre légal lui permettant de se développer. En parallèle du travail du NIH, la FDA n’est pas en reste dans sa volonté de modernisation. Après que Robert Califf, membre important de l’agence, ait rappelé la mission statutaire de la FDA, à savoir "protéger la santé publique" mais également "accélérer et amplifier l’innovation", Taha Kass-Hout, Chief Health Informatics Officer de la FDA, a présenté leur initiative baptisée openFDA, lancée en juin 2014 et toujours en cours de perfectionnement [5].

openFDA est une plateforme en ligne visant à fédérer une communauté autour des informations issues des bases de données de l’agence fédérale, à commencer par les effets indésirables rapportés des différents traitements sur le marché ou retirés (également vrai pour les dispositifs médicaux et les produits alimentaires). La plateforme fournit un panel d’interfaces de programmation permettant de développer rapidement et de manière homogène des applications et solutions logicielles s’appuyant directement sur les données mises à jour en temps réel de la FDA. Pour mener à bien ce projet, des efforts fournis sont également menés sur les infrastructures nécessaires à son bon fonctionnement, à savoir les technologies utilisées, les capacités de calcul et de stockage, et la facilité d’utilisation pour de non-experts.

Dans un genre différent, citons également l’initiative BD2K (Big Data to Knowledge) lancée en 2012 par le NIH [6]. Son but est de soutenir le développement de nouvelles approches et outils afin d’accélérer l’utilisation des mégadonnées dans la recherche biomédicale. Plusieurs témoignages de chercheurs ont été présentés, l’un se penchant sur les problématiques de standardisation des données issues de sources diverses (Mark Manson, Stanford), quand d’autres tentent des approches innovantes pour digitaliser l’intégralité de la littérature scientifique médicale et ainsi permettre son analyse à une échelle encore impensable (Andrew Su, Scripps Institute).

L’administration Obama aura plus qu’accompagné cette mutation du secteur. Kathy Hudson confie sur le ton de l’humour qu’on lui aurait confié à Washington qu’en se "levant le matin, le Président Obama pense à ISIS, la situation économique intérieure et la Precision Medicine Initiative". Notant les efforts publics dans ce sens, nous serions tentés de le croire.

Un système de santé en mutation

Ces accompagnements réglementaires et structurels préfigurent d’une manière plus générale une mue du système de santé américain, entendant s’acheminer vers un système ’intelligent’, au sens de la récolte, du suivi, de l’analyse et de l’interprétation permanente de données à tous les étages.

Des représentants publics (FDA ,NIH, NSF) aux entreprises privées et groupements hospitaliers (Kaiser Permanente), l’ensemble des intervenants a déclaré inscrire ses travaux dans cette direction. Ces systèmes intelligents sont d’ores et déjà en fonction à des échelles réduites (Stanford Hospital, entre autres), mais ne sont que les premiers bourgeons d’un massif à naître, conduisant à terme à un système national entièrement intégré.

Pour ce faire, des recherches sont conduites à la fois sur le développement d’objets connectés aux applications intelligentes (Apple, Samsung notamment), mais surtout sur les conditions de récolte et de traitement des données. Ces recherches sont particulièrement importantes dans le champ des sciences informatiques et de calcul, dans le but de maximiser la capacité des machines et d’optimiser l’utilisation des langages de codage en fonction des analyses souhaitées (Kunle Olokotun, Stanford), ou encore sur les méthodes statistiques et algorithmiques permettant d’analyser des ensembles de données disparates au sein d’un modèle analytique simulant des interactions complexes sous forme de réseaux (Genevera Allen, Rice University). Mais cela concerne également la sélection des informations pertinentes et actionnables pour les professionnels de santé dans le parcours de soin. Dans cette perspective, Ida Sim (UCSF) travaille sur le concept de ’prescription de données’ à destination des patients dans un futur proche, collectées au moyen d’objets intelligents du quotidien (montre ou autre), en lieu et place de la prescription de certains examens nous apparaissant classiques aujourd’hui (électrocardiogrammes, tests à l’effort, étude du sommeil, etc.).

Un système de santé intelligent requiert également la présence généralisée de dossiers médicaux informatisés, permettant un suivi précis des patients dans toutes les situations, ainsi que la constitution de bases de données anonymisées potentiellement sources de percées théoriques après analyse. Là encore, de nombreux travaux ont lieu afin de permettre l’implémentation de tels outils de manière systémique dans un futur proche. Car c’est ici tout l’intérêt d’un tel système : générer des données en permanence, effectuer des analyses et prédictions en temps réel, et apprendre des données le composant et à mesure que les données s’accumulent afin de devenir toujours plus précis et prédictif.

Un nouveau paradigme de recherche, le patient au centre

Bien entendu, au-delà des innovations purement technologiques, étaient présentées les dernières découvertes biomédicales en imagerie, diagnostic, immunologie et oncologie notamment, tous ces projets ayant la caractéristique commune d’utiliser au coeur même de leur processus les technologies d’intelligence artificielle et de traitement des données les plus avancées. Nous citerons à titre d’exemple les travaux remarquables de Gwenaëlle Douaud (Oxford) en neuroimagerie, visant à détecter des modifications structurelles de certaines zones du cerveau annonçant leur dégénérescence, de Heidi Rehm (Harvard) en génomique, sur la classification des variants de chaque gène et de leur implication phénotypique (dans le cadre du programme ClinGen / ClinVar financé par le NIH), de Scott Boyd (Stanford) en immunologie, analysant les réarrangements de gènes responsables de la production des immunoglobulines et des récepteurs sur les lymphocytes T, dans le but de mieux comprendre les spécificités immunitaires inter-individuelles et la mémoire immunologique de chacun, ou encore ceux de Michael Levitt (Stanford), Prix Nobel de Chimie 2013, sur le comportement fondamental des protéines et molécules d’ADN et ARN à l’aide de méthodes de bioinformatique.

Enfin, un dernier point à souligner est l’accent mis sur l’importance de l’implication individuelle des patients et de leur rôle à jouer dans la recherche biomédicale. Jill Hagenkord (23andMe) a résumé cela par cette phrase "Personne ne s’intéresse plus à votre santé que vous-même". En effet, que ce soit par le partage volontaire de leur données cliniques ou génétiques avec des organisations de recherche ou par le crowdsourcing permettant d’échanger conseils, bonnes pratiques et protocoles de soins entre patients, le patient revient plus que jamais au centre du système et se mue même en condition nécessaire assurant l’émergence d’un grand tout basé sur l’addition d’un nuage de points.

Cette conférence fut ainsi riche en enseignements. Et au-delà de toutes ces découvertes et avancées, Lloyd Minor, doyen de l’école de médecine de Stanford, osa un concept innovant : la santé de précision. Prenant à rebours celui de médecine de précision, selon lui axé sur des formes de diagnostics et de traitements toujours plus pointus et individualisés, il fait le choix d’une gestion proactive de la santé au travers de prédictions et mesures de prévention sans cesse plus efficaces. Et il semble loin d’être seul sur ce projet.

Sources :
- [1] Barack Obama annonce l’avènement d’une médecine de précision - Hocine Lourdani - Lien : http://www.bulletins-electroniques.com/actualites/77731.htm
- [2] Barack Obama détaille son initiative pour un médecine de précision - Hocine Lourdani - Lien : http://www.bulletins-electroniques.com/actualites/77799.htm
- [3] Federal Policy for the Protection of Human Subjects (’Common Rule’) - US Deparrtment of Human Health services - Lien : http://www.hhs.gov/ohrp/humansubjects/commonrule/index.html
- [4] Lien : http://www.clinicaltrials.gov
- [5] openFDA website - Lien : https://open.fda.gov/
- [6] BD2K website - Lien : https://datascience.nih.gov/bd2k

Rédacteurs :
- Hocine Lourdani, San Francisco, hocine.lourdani@ambascience-usa.org ;
- Retrouvez l’actualité en Californie du Nord sur http://sf.france-science.org ;