Plusieurs startups tentent d’améliorer la reproductibilité dans l’expérimentation scientifique

, Partager

Dans un article du 9 juin 2015 du journal PLoS Biology [1], Len Freedman proposait une méthode pour estimer le coût annuel global aux Etats-Unis des recherches biomédicales non-reproductibles. Evalué à 28 milliards de dollars, soit environ la moitié de la dépense intérieure de R&D en France toutes disciplines confondues [2], ce manque de robustesse dans l’expérimentation serait la résultante d’une conjonction de 4 facteurs d’instabilité : la conception de l’étude, les protocoles en laboratoire, les réactifs biologiques et l’analyse des données. Même si le mode de calcul proposé par cette étude est jugé lui-même peu fiable [3], l’incapacité à reproduire de façon robuste certaines expériences scientifiques reste un problème assez répandu : réduire cette instabilité permettrait non seulement d’économiser de précieux budgets de recherches, mais également de trancher certaines conjectures scientifiques pour le moment indécidables.

De tels points de frustration (les fameux pain points) servent souvent de germes d’innovation [4], c’est pourquoi on ne s’étonnera pas de voir un nombre croissant de startups investir ce champ, toutes désireuses de rendre la R&D plus robuste et les résultats d’expérimentations mieux reproductibles. Parmi celles-ci, 3 jeunes entreprises installées aux portes de San Francisco, s’attaquent au problème, chacune avec une approche un peu différente : la conception-design et l’internet des objets (Riffyn), la codification des protocoles et leur partage communautaire (ZappyLab), la maîtrise fine des conditions d’expérimentation et le cloud (Emerald Therapeutics).

« Une bonne partie de la R&D se vautre actuellement dans l’état de négligence et d’amateurisme qu’a connu l’industrie automobile à ses débuts » : c’est ainsi que Timothy Gardner, fondateur de Riffyn [5] et ancien vice-président de la recherche d’Amyris, qualifie le stade d’évolution actuel des activités de recherche et développement. Il estime que, de la même façon que l’industrie est parvenue à fiabiliser ses procédés de fabrication, on devrait être désormais capables de faire la même chose pour les protocoles de recherche, les automatiser de façon plus radicale. La solution proposée par Riffyn s’appuie tout d’abord sur l’internet des objets pour connecter tous les équipements d’un laboratoire entre eux et ainsi collecter le maximum de données de façon transparente. L’entreprise a par ailleurs mis au point des outils logiciels de conception de haut niveau, permettant de créer des expériences scientifiques à partir d’un éditeur graphique, de diagrammes de flux, et d’une grande variété de connecteurs entre les étapes du protocole. Une équipe peut travailler de façon collaborative en temps réel sur les fichiers, et générer une arborescence complète de protocoles-fils à partir d’une expérience-mère. Enfin, chaque étape du parcours peut être précisément documentée à l’aide de photos et de vidéos. Tout cela, espère Gardner, pourrait permettre à terme de « dérisquer » la conduite de la R&D et de designer une expérience de science comme on le fait aujourd’hui d’un produit industriel.

Peu de choses sont prévisibles ou reproductibles dans la trajectoire de Leonid Teytelman : arrivé aux Etats-Unis à 12 ans en provenance de Biélorussie, c’est une erreur introduite dans un dosage dans l’un de ses papiers de recherche qui va lui donner l’idée de sa startup, et c’est le gain obtenu dans un jeu radiophonique qui va lui permettre d’en assurer le financement d’amorçage. ZappyLab, l’entreprise qu’il a créée en 2012 au sein de l’incubateur de UC Berkeley [6], a pour ambition de devenir le « github » des méthodologies scientifiques. Un espace communautaire où les chercheurs viennent déposer les différentes versions successives de leurs articles, lorsque des raffinements ou des corrections de leurs protocoles interviennent. Pour Teytelman, les modes de publication scientifique n’ont pas évolué depuis l’époque de Mendel, alors que les outils informatiques et les réseaux sociaux permettent aujourd’hui des modalités de co-construction très variées. Il imagine qu’un protocole d’expérimentation scientifique puisse être « joué » pas à pas, avec un bouton « play », chaque étape pouvant faire l’objet de notes détaillées et multimédias. L’enjeu est bien celui de la reproductibilité afin que les protocoles soient stabilisés par les interactions successives entre chercheurs, à la façon dont se construit une page wiki, par accrétion d’influences multiples et convergentes. Le modèle d’affaires retenu par Zappylab est également intéressant, puisque les vendeurs de réactifs chimiques sont référencés sur la plateforme, et que la startup a l’intention de rémunérer non seulement les auteurs qui y déposent un article mais également ceux qui le commentent et l’amendent.

JPEG - 328 ko
"Lab in the cloud" calibré et robotisé chez Emerald Therapeutics
Emerald Therapeutics

L’une des caractéristiques des systèmes complexes qui explique la forte volatilité des sorties en dépit d’entrées identiques est l’extrême sensibilité aux conditions initiales. L’imprédictibilité de certaines expériences pourrait alors s’expliquer par l’infime décalage de certains paramètres ancillaires ou d’environnement au laboratoire. Quand en 2010 ils lancent Emerald Therapeutics [7], DJ Kleinbaum et B. Frezza, s’efforcent de mettre au point des antiviraux innovants, mais depuis leurs études universitaires, ils ont compris que l’intervention humaine est productrice de bruit et de biais dans tout process d’expérimentation. Leur idée est alors de pousser cette logique de l’automatisation à son point ultime : non seulement robotiser la plupart des manipulations de type pipetage, mélange, microscopie ou chronométrage, mais également maîtriser parfaitement toute l’instrumentation contenue dans le laboratoire. Quatre ans plus tard, la recherche de molécules thérapeutiques n’est plus le métier principal d’Emerald, qui s’affiche désormais comme un « lab in the cloud », un fournisseur d’expériences de biologie à distance, standardisées et ultra-contrôlées. Il s’agit moins d’outsourcing que d’une véritable virtualisation, à la manière de ce que propose Amazon Web Services dans le domaine des serveurs de calcul, ou les entreprises spécialisées à Taiwan pour les concepteurs fabless de circuits intégrés. Chez Emerald, les utilisateurs peuvent actuellement commander une quarantaine d’expériences standard en microbiologie et petite animalerie (une centaine fin 2016), réalisées dans des salles blanches sans intervention humaine, où chaque instrument est calibré parfaitement à l’identique, toutes les semaines, en conservant l’intégralité des données sur ces opérations. Les pièces de rechange des instruments sont gérées sur le modèle des avionneurs, et toutes les données de maintenance et de calibration sont archivées, pour éventuellement comprendre les phénomènes perturbateurs d’une expérience. Le souci du détail est absolu, les caissons d’obscurité pour la fluorescence sont par exemple construits sur mesure, ceux de ventilation sont individualisés pour chaque expérience, et l’entreprise s’intéresse même à la maîtrise de ses réseaux de ventilation et de fluides (gaz et électricité). L’intégralité des données de contexte durant le déroulement d’une expérience est collectée et stockée dans le cloud, et l’utilisateur pourra y avoir accès et les visualiser à distance sur sa machine, véritable ontologie complète d’une expérience scientifique, gage d’une reproductibilité accrue.


Rédacteurs :
- Philippe Perez, Attaché pour la Science et la Technologie, San Francisco, philippe.perez@ambascience-usa.org