BIG DATA

Simuler la Terre par ordinateur: le dernier projet fou né à l'EPFL

Regrouper toutes les données environnementales sur la planète bleue, et les faire interagir dans un superordinateur: c’est l’«Ultimate Earth Project», co-imaginé par Philippe Gillet, de l’EPFL, qui répond à un appel à idées de l’UE pour les grandes initiatives à 1 milliard d’euros

Nom de code: «Ultimate Earth Project», qu'on peut traduire par «Projet de Terre ultime». Objectif: simuler la Terre entière, en tenant compte de tous les secteurs qui la caractérisent, soit son atmosphère, sa biosphère, sa géosphère, son hydrosphère, sa cryosphère (régions de glace), etc... C'est, selon les informations recueillies par Le Tempsl'initiative colossale proposée par un consortium, qui s'est réuni le 15 avril 2016, et qui mené par deux chercheurs, John Ludden, directeur du British Geological Survey, et surtout Philippe Gillet, géophysicien et vice-président de l'EPF de Lausanne. Un projet qui, selon ce dernier, devrait «enfin permettre de considérer et traiter la planète dans sa globalité». Comment? «En agrégeant toutes les données scientifiques collectées durant des décennies dans les domaines précités pour les insérer dans un immense simulateur informatique».

Lire aussi notre éditorial: La science en grand

Cette description n'est pas sans rappeler un autre programme d'envergure similaire: le Human Brain Project (HBP), pensé aussi à l'EPFL, et qui ambitionne de regrouper toutes les connaissances sur le cerveau pour, à terme, reproduire son activité à l'aide de superordinateurs de conception inédite. La ressemblance ne s'arrête pas là, puisque ces deux projets s'inscrivent dans le cadre des «FET Flagships» (vaisseaux) scientifiques voulus par la Commission européenne, soit des plans sur dix ans dotés d'un milliard d'euros devant assurer un leadership au Vieux Continent dans des secteurs clés; le HBP a été choisi dans la première vague, en 2013, et l'«Ultime Earth Project», déposé officiellement sous l'égide du Natural Environment Research Council britannique, est l'une des 27 propositions qui font suite à un appel à idée lancé en février par l'UE en vue d'une possible deuxième salve. A ce stade, il ne s’agit pas d’un projet soutenu par l’EPFL en tant qu'institution, mais du «bébé» de plusieurs scientifiques internationaux parmi lesquels se trouve son vice-président.

Lire aussi: Feu vert de l'UE pour la suite du Human Brain Project

«Pour prétendre vivre de manière durable, et permettre aux décideurs et aux industriels de prendre des décisions adéquates pour assurer la sécurité, la gestion des ressources, ou contrer les impacts des catastrophes naturelles, il faut développer une compréhension globale du système 'Terre'», explique Philippe Gillet. Jusqu'à aujourd'hui, des milliers de scientifiques ont oeuvré de manière compartimentée: les meilleurs satellites d'observation de la Terre ont été lancés, les systèmes de senseurs les plus fins ont été installés aux quatre coins du globe, les modèles prédictifs les plus évolués ont été mis au point, mais ceci à chaque fois dans un domaine d'étude précis. «Il s'agit maintenant de faire parler ensemble toutes ces données, de les faire interagir», dit le géophysicien. L'ambition de l'«Ultimate Earth Project» est ainsi de développer une plate-forme de simulation qui intègre tous les aspects de l'évolution de la Terre, et qui devienne une ressource unique mais ouverte à toute la communauté scientifique. 

Pour prétendre vivre de manière durable, il faut développer une compréhension globale du système 'Terre'

Le projet vise de plus à tirer parti des données générées également par les particuliers. Nombre d'entre eux s'équipent par exemple d'une petite station météo, dont les mesures, même de qualité variable, ont aussi de la valeur, indique Philippe Gillet, qui admet: «Le succès d'un tel projet passera inévitablement pour une standardisation et une harmonisation de toutes ces données. Il y a là un énorme travail informatique à réaliser». Enfin, «il y aura aussi des retombées économiques,la gestion de ces informations devant être prise en charge par des entreprises.»

Autres projets aux Etats-Unis et au Japon

Le vice-président de l'EPFL le reconnaît: «Ultimate Earth Project» n'est pas la seule initiative du genre. Aux Etats-Unis, le projet «Earth Cube», lancé en 2011 par la National Science Foundation, vise le même objectif, ou presque. «Notre approche veut développer une cyberinfrastructure servant de support générique aux géosciences, détaille l'un de ses responsables, Lee Allison, de l'Arizona Geological Survey à Tucson. Nous mettons l'accent sur un petit nombre d' 'outils de base' pour développer des applications, et sur des activités pour lier ces efforts. Le potentiel pour un simulateur planétaire global pourrait émerger de cela, mais nous n'en avons encore vu aucune preuve.» Une approche dite «bottom up» souvent propre au mode de pensée américain, que Philippe Gillet respecte, mais à laquelle il préfère une vision «top down»: «Tout le monde travail dans son coin, par segment. Il est temps d'avoir une vision plus large et intégrée».

Au Japon, voici quinze ans que tourne le Earth Simulator Center, un supercalculateur utilisé surtout pour mener des simulations en sismologie et en météorologie/climatologie. En novembre, lors d'un colloque tenu à Buenos Aires, des résultats ont été présentés. Arthur Charpentier, mathématicien à l'Université du Québec à Montréal, y a assisté et se dit impressionné: «Dans leurs modèles climatiques, ces chercheurs sont parvenus à une résolution spatiale excellente, de 5 km, alors que la granulométrie habituelle qu'on utilise est de 200 à 250 km. De plus ces modèles incluaient aussi des données géophysiques, et permettent de simuler l'évolution sur des régions parfois exclues, comme les pôles. C'est donc intéressant.» Philippe Gillet ne dit pas le contraire, mais souligne que ce projet travaille par segment et en vase clos, et non de manière intégrée en tenante compte de toutes les données existantes en géosciences: «En fait, ils sont arrivés trop tôt par rapport à ce domaine du Big Data.»

Enfin, en 2013, Bob Bishop, ancien directeur de la firme Silicon Graphics, a fondé à Genève l'International Center for Earth Simulation (ICES), avec la même idée que l'«Ultimate Earth Project» de l'EPFL, école à laquelle il est d'ailleurs rattaché. «L'ICES n'a toutefois jamais pu développer son idée, qui est bonne, car il n'a pas réussi à lever les fonds nécessaires», indique le climatologue Martin Beniston de l'Université de Genève, appelé à faire partie du comité d'experts. Or Philippe Gillet reconnaît d'ailleurs sans ambages s'être inspiré des plans de l'ICES pour sa proposition.

Va-t-on donc assister à une bataille des «simulateurs terrestre», comme on assiste à une course aux «cerveaux artificiels» entre la Chine, les Etats-Unis et l'Europe? Pour Andrea Thorpe, scientifique de l'observatoire américain NEON destiné à prévoir les actions nécessaires pour faire face aux impacts des changements climatiques, «il s'agit plutôt d'un défi commun, tant chaque projet doit apprendre des autres puisque tous sont partis sur des bases différentes». Philippe Gillet, lui, est moins conciliant: «Oui, c'est une course pour l'Europe, car elle possède le savoir-faire dans ces domaines du Big-Data, il serait dommage qu'elle le perde. Car ces initiatives parallèles vont accélérer les activités dans ce domaine.» Et d'insister sur le fait que l'expérience acquise dans le Human Brain Project donne un certain poids à cette nouvelle proposition: «L'on a montré qu'on peut le faire avec le cerveau, pourquoi ne pourrait-on pas avec la Terre?»

Légitimité de l'EPFL

Si cette légitimé affichée fait un peu débat dans le domaine des sciences de la Terre – l'EPFL n'étant pas en pointe dans ce domaine – les experts contactés par Le Temps reconnaissent qu'avoir déjà érigé un projet tentaculaire, le HBP, est un atout. Ils  se posent toutefois d'autres questions de détails sur la pertinence de ces «simulateurs de planète». «J'ai l'impression que ceux-ci pourront être utiles, notamment dans la prédiction des grands phénomènes, tel El Nino, dit Arthur Charpentier. Mais pour moi qui travaille dans la simulation de la gestion des risques sur les bâtiments, il restera impossible de prévoir les rafales de vent, ou le nombre de tempêtes hivernales sur une période de cinq ans.» Martin Beniston, lui, se demande si «le fait de coupler divers modèles de divers domaines géoscientifiques ne fera pas s'additionner aussi les incertitudes qui sont intrinsèquement liées à chacun, au risque d'avoir un produit final inutilisable.» Mais il entrevoit aussi des applications concrètes: «Nous pourrions par exemple étudier comment la tectonique des plaques a influencé les paléoclimats.»

Comme il l'explique dans sa proposition, Philippe Gillet s'attendait face à elle à un certain scepticisme semblable à celui qui a accompagné l'éclosion du Human Brain Project. Mais il a aussi une réponse toute faite: «Nous avons aujourd'hui la technologie pour nous lancer. Si on ne commence pas maintenant, on ne fera jamais rien.» 

Lire également: L'Europe de la science continue de voir grand, et la Suisse de se placer à ses avant-postes


«Pour faire des percées, il faut des approches radicales»

Javier Marti est manager du projet NEON, un nouvel observatoire américain destiné à prévoir les actions nécessaires pour faire face aux impacts des changements climatiques

Quels sont les défis des «simulateurs de Terre»?
Il n'est plus possible de travailler uniquement dans des domaines segmentés pour l'étude de la Terre. Il faut adopter une approche plus holistique. Pour cela, il faut prendre garde d'abord à ce que les données soient de qualité. Ensuite, qu'elles aient entre elles un degré suffisant de standardisation, et pour cela il faut bien comprendre la manière dont elles ont été produites. Enfin, il faut que ces données soient «inter-opérables», autrement dit qu'on puisse utiliser des informations de divers domaines dans une même simulation, avec un «langage commun». Ce nécessite des efforts énormes. Peu importe si les approches sont différentes, et qui devance qui, il faut que ces projets deviennent mature. Car au final, après avoir jetée l'idée sur le papier, il faut la concrétiser...

Est-ce bien réaliste?
Oui, assez. Cela dit, il sera crucial de toujours bien poser les questions pour les réponses desquels on veut utiliser ces montagnes de données. Et donc des mécanismes à mettre en place pour les analyser.

Ces immenses projets, nécessitant des sommes faramineuses, sont-ils aussi efficaces qu'une myriade de petits projets, moins chers mais plus dynamiques?
A chaque fois, en sciences, on cherche des retours sur investissement. Ils doivent évidemment être d'autant plus importants que le projet l'est aussi, ce qui n'est pas assuré. Mais ces vastes projets permettent de faire des choses impensables autrement. Pour faire de grandes percées, il faut des approches de plus en plus radicales.

Publicité