CaFFEET’13 : "How can Big Data boost our Society’s Resilience ?"

, Partager

Organisé par EDF, le Consulat Général de France à San Francisco et PRIME, le California France Forum on Energy Efficiency Technologies (CaFFEET) s’est déroulé les 21 et 22 novembre 2013 dans l’enceinte de la prestigieuse université de Stanford. Créé en 2011, CaFFEET a une nouvelle fois permis de faire interagir des experts du monde académique et industriel en provenance de France et des Etats-Unis. Outre la participation d’entreprises comme EDF, Oracle, IBM ou HP, et de centre de recherche tels que l’INRIA, Stanford ou l’EPRI, CaFFEET’13 a également mis à l’honneur des instances publiques telles que la ville de Palo Alto ou le gouvernement français ainsi que des start-ups. Au travers d’un Technology Showcase, des start-ups des deux côtés de l’Atlantique telles que Pow Wow (récent vainqueur du Clean Tech Open Monde), Fruition Sciences, Grid Pocket ou encore SNIPS ont ainsi pu échanger avec de potentiels partenaires ou clients.

Après la thématique de l’efficacité énergétique dans l’industrie puis celle des villes intelligentes, la troisième édition de CaFFEET a abordé la problématique du Big Data et de la résilience. La notion de résilience, ou la capacité d’une organisation à résister à un choc exogène (e.g. cyber-attaque) ou endogène (e.g. crise économique), est en effet devenu une thèmatique phare des opérateurs d’infrastructures et des autorités publiques américaines, notamment suite aux nombreuses catastrophes naturelles de 2012 qui ont coûté au pays plus de 100 milliards de dollars.

Les participants de CaFFEET ont été invités à réfléchir : "De quelle manière les nouveaux outils Big Data vont-ils permettre d’améliorer la résilience de la société ?".


Logo du California France Forum on Energy Efficiency Technologies (CaFFEET) 2013
Crédits : Crédits Mission pour la Science et la Technologie


1. Big Data et Résilience : De quoi parle t on ?

Cette session d’introduction avait pour but de planter le décor et de partager avec l’audience une même vision des concepts de Big Data (du point de vue mathématique ou business) et de Résilience.

C’est d’abord Simon Lacoste-Julien, chercheur à l’INRIA, qui a introduit le Big Data et les enjeux liés au traitement de ces énormes volumes de données au travers d’exemples concrets de "machine learning" associés à l’analyse de textes ou d’images. M. Lacoste-Julien a par ailleurs mis en garde l’auditoire en précisant que l’analyse de données massives repose avant tout sur des hypothèses et l’expertise des hommes qui les manipulent.

TM Ravi, fondateur de The Hive, un incubateur de start-ups exploitant le Big Data, a complété ce premier exposé par une illustration des opportunités offertes par le Big Data telles que le ciblage marketing, l’optimisation de processus ou encore la maintenance prédictive. Du point de vue des nouveaux modèles d’affaire, on retiendra par exemple les innovations liées à l’économie du partage (car sharing, Uber, airBnB, etc), au marketing personnalisé et aux objets connectés.

Cette session s’est conclue par un exposé de Mickael Krull, vice-président de Resilient Corp., une start up spécialisée sur la résilience des organisations (entreprises privées, institutions, etc..). Mickael Krull a notamment fait sensation en présentant les scores de résilience des entreprises présentes dans la salle.

2. L’utilisation du Big Data par les opérateurs d’infrastructures

Première session thématique de la conférence, le panel dédié aux opérateurs d’infrastructures a réuni des acteurs d’horizons divers : Orange, PG&E, l’Electric Power Research Institute (EPRI) et le MIT ont eu l’occasion d’intervenir et de présenter de quelle manière le Big Data est en train de métamorphoser leur coeur de métier. L’ère du tout numérique modifie en profondeur leur manière de travailler et leur offre de nouveaux outils pour améliorer la résilience de leurs infrastructures.

Pour Matt Wakefield, directeur IT de l’EPRI, la résilience se décompose en trois étapes clés : "predict, assess and recover" (prédire, évaluer, se remettre). Il a illustré ses propos par des exemples d’applications sur lesquelles se penchent actuellement ses équipes. On peut notamment citer l’analyse prédictive des données permettant de faire des évaluations de dégâts matériels causés par une catastrophe naturelle ou encore l’analyse de données en temps réel rendue possible grâce au déploiement de capteurs très variés sur le réseau électrique.

Valérie Le Peltier, directrice du département Utilities d’Orange, a, quant à elle, cité trois cas concrets d’utilisation du Big Data par l’entreprise de télécommunication française : la visualisation des flux d’informations sur le réseau télécom, l’exploitation des données des téléphones cellulaires confiées à des parties tierces, profiter du crowdsourcing pour mesurer la qualité de l’air.

De son côté, François-Xavier Rongère, directeur de département Gaz de PG&E, a mis en avant les challenges que rencontre quotidiennement son entreprise dans la gestion d’infrastructures gazières.

Pour conclure la session, Amin Saurab, professeur assistant au MIT de Boston, a rappelé qu’introduire des nouveaux outils communicants aux infrastructures existantes n’était pas sans risque. La cybersécurité doit être une priorité pour les opérateurs d’infrastructures.

3. L’utilisation du Big Data par les instances publiques

Kat Borlogan, fondatrice de la start up FivebyFive et modératrice de cette seconde session, a promu avec ferveur l’Open Data. Elle a notamment illustré son propos par le besoin crucial d’informations et de données dont ont témoigné les secours à la suite de la tornade ayant ravagé les Philippines.

Romain Lacombe, en charge de l’innovation au sein du cabinet du Premier Ministre Français, a également vanté les mérites des démarches "Open Data" pour renforcer la résilience des institutions. En assurant plus de transparence, l’accès à l’information et à des données brutes doit renforcer la confiance des citoyens. Cet accès à l’information favorise également la mobilisation des citoyens pour des actions collectives ou sociales.

Jonathan Reichental, fervent promoteur de l’utilisation du Big Data qui selon lui "rend visible l’invisible", a présenté des exemples concrets d’application dans sa ville de Palo-Alto. Il a insisté sur l’intérêt d’ouverture des données, permettant leur utilisation et le développement d’applications par le plus grand nombre. Enfin, il a plaidé pour le recrutement de gestionnaires de données au sein des administrations.

Un autre exemple de l’utilisation du Big Data pour la qualité de vie des citoyens a été présenté par Georges Mohler de PredPol Inc. Ce dernier a en effet collaboré avec les villes de Chicago, Santa Cruz ou Los Angeles et développé une méthode d’analyse et de prédiction des crimes. Les résultats de cette analyse, transmis aux services de police de la ville, visent à mieux répartir les effectifs afin d’éviter le maximum de délits.

4. L’utilisation du Big Data pour la résistance aux catastrophes naturelles

Therese Tierney a introduit la session en décrivant au travers de nombreux exemples concrets l’apport du crowdsourcing dans les phases de prévention (before), d’alerte (during) et de secours (after) de catastrophes naturelles.

Gabriela Pena a également mis en avant l’importance des réseaux sociaux, notamment Twitter, dans la gestion des impacts de catastrophes naturelles (par exemple pour évaluer la gravité des événements, la gestion des secours, etc.) telles que les feux du Bush Australien ou le tremblement de terre de Fukushima. Par ailleurs, Twitter développe aujourd’hui de nouveaux outils visant à mieux valoriser des informations issues des tweets.

Mais la résilience des sociétés aux catastrophes naturelles repose également sur la modélisation afin de mieux prédire les événements et leur gravité. C’est le sujet traité par le Professeur Anne Kiremidjian, de l’université de Stanford, dont les travaux de recherche portent spécifiquement sur la modélisation des tremblements de terre et de leur impact sur les populations. La principale difficulté ici n’est pas de collecter les données (présentes ou passées) mais d’en faire une meilleure utilisation.

Enfin, Vivien Mallet a complété ces propos par la description des enjeux liés à la modélisation de systèmes complexes (météorologie, qualité de l’air, etc) mêlant données réelles et résultats de simulation.

5. L’utilisation du Big Data pour l’adaptation au changement climatique

L’ère du Big Data ne se résume pas à des outils sophistiqués pouvant nous aider à faire face à des chocs court-terme comme les catastrophes naturelles. Non, le Big Data fait référence à une véritable révolution. Le numérique étant partie intégrante de nos modes de vie actuels et futurs, le Big Data est un outil utile pour faire face à des chocs plus long terme comme le changement climatique.

Lutter contre le changement climatique passe, entre autres, par l’introduction de davantage d’énergies renouvelables. François Dauphin, expert Utility pour HP, a choisi de consacrer sa présentation au cas très concret de la Côte d’Azur. Il a ainsi présenté les défis majeurs auxquels la région été confrontée et de quelle manière les nouveaux outils informatiques permettraient de mieux intégrer la production solaire et les véhicules électriques par exemple.

Etre résilient face aux changements climatiques, c’est aussi être capable d’en analyser les risques. C’est ce que propose Charles Khuen, fondateur de Weather Analytics. Avec des outils de modélisation de plus en plus performants et des jeux de données collectées sur les trente dernières années puis numérisées, nous sommes aujourd’hui en mesure d’effectuer des analyses de risques liés aux changements climatiques. Illustré par ces deux exemples, il apparaît clairement que le Big Data ouvre de nouveaux horizons dans la lutte contre le changement climatique.

Conclusion

Le Big Data apparaît pour la plupart des participants comme une révolution ("data is the new oil"), liée à l’explosion des données disponibles et au développement des outils informatiques de traitement de données. A ce titre, les démarches d’Open Data semblent tout à fait pertinentes. Même s’il offre de grandes opportunités telles que le crowdsourcing pour accroître la résilience de nos sociétés, on retiendra que le Big Data n’est pas la solution miracle et ne pourra se passer de l’expertise terrain, notamment pour l’élaboration des hypothèses nécessaires à l’analyse.

La vraie révolution du Big Data vient du changement de perspectives : les nouvelles techniques d’analyse de données et de Machine Learning offrent l’opportunité de ne plus se concentrer sur le passé mais bien sur le futur !

Sources :


- Conférence CaFFEET du 21 et 22 Novembre 2013 à Stanford University, "How Can Big Data Boost Society Résilience ?"
- Site web de CaFFEET, http://caffeet.org/ (les présentations de la conférence sont disponibles sur le site)

Rédacteurs :


- Basile Bouquet, Smart Grid Analyst, basile.bouquet@consulfrance-sanfrancisco.org
- Retrouvez toutes nos activités sur http://france-science.org

Voir en ligne : http://www.bulletins-electroniques….