big data
Pour le titulaire des Digital Humanities à l’EPFL, notre capacité à penser l’avenir est engloutie dans un présent de plus en plus encombrant à force de multiplier ses traces. Et si on regardait plutôt en arrière, à l’aide des sciences humaines et des mégadonnées?

Sous la conduite de Frédéric Kaplan, les «humanités digitales» mènent à tout. Reconstituer un millénaire de vie individuelle et sociétale à Venise pour s’y balader comme dans une Google Earth en quatre dimensions. Appliquer des modèles mathématiques aux Confessions de Rousseau pour faire émerger les relations entre les personnages via le réseau social qui se tisse entre eux. Etudier la façon dont les supports numériques conduisent le lecteur à réorganiser le récit qu’il lit. Et ouvrir le chantier de notre avenir dans notre passé.
Le Temps: Dans notre page consacrée aux «idées porteuses d’espoir» et aux «idées dépassées» pour la nouvelle année (LT du 03.01.2015), vous rangiez «le futur» dans la seconde catégorie: «Le présent prend aujourd’hui toute la place, documenté seconde par seconde.» Au cœur du changement, il y a la multiplication des traces que nous laissons, récoltons, exploitons…
Frédéric Kaplan: Oui, pour autant qu’on aille au-delà du lieu commun: nous sommes tracés, Big Brother nous surveille… Cette dimension existe, mais ce n’est pas tout. Ce qui est intéressant, c’est l’ambiguïté de la trace, qui n’est jamais une simple captation de la vérité. Dès le moment où nous sommes tracés et où notre trace est visible par d’autres, elle devient un mode expressif: nous nous exprimons par la trace. Publier nos photos sur Facebook nous conduit à nous comporter différemment – et à choisir ce que nous voulons montrer: nous faisons de nos traces une œuvre, un discours. Nous sommes donc à la fois dans une société transparente et dans un carnaval de Venise: nous nous savons observés, donc nos comportements changent – nous portons un masque.
– Venise: votre grand chantier… Le projet «Venice Time Machine», que vous lanciez en 2013 avec le soutien de la Fondation Lombard Odier (LT du 21.06.2014 et du 23.02.2013), applique le Big Data à l’exploration du passé, numérisant douze siècles d’archives et les faisant parler.
– De la même manière dont nous construisons le présent, nous allons reconstruire le passé – en redécouvrant des traces. Mais là aussi, il faut être prudent, parce qu’il s’agit d’un passé reconstitué, simulé, réinventé. C’est un processus complexe, qui a des analogies avec ce qui se passe pour l’espace avec Google Earth. Cette reconstitution multi-échelle du globe terrestre est un système sociotechnique constitué de photos, mesures, traces multiples à partir desquelles on reconstitue une sorte de simulacre à travers un système d’agrégation complexe. Le résultat n’est pas une carte dessinée par quelqu’un, c’est une véritable machine algorithmique. Mais puisque le dispositif technique est efficace, on oublie son existence: on peut zoomer en n’importe quel point, c’est si immédiat qu’on perçoit cela comme si c’était la réalité. Dans les données, vous le voyez bien, rien n’est donné, tout est construit. Il faut bien comprendre et documenter ce processus et surtout ne jamais être naïf.
– «Le passé, c’est la nouvelle frontière», nous disiez-vous en évoquant une «idée porteuse d’espoir».
– Le passé va prendre une nouvelle forme au cours des vingt-trente prochaines années, une forme calquée sur nos nouveaux modèles du présent: nous allons construire des Facebook du passé, des Google Maps du passé… Il s’agit de naviguer dans le passé comme on le fait dans le présent, avec la même facilité et la même densité informationnelle. La reconstitution du passé sera d’ailleurs un des enjeux culturels majeurs du XXIe siècle. Comme l’écrivait George Orwell, «celui qui contrôle le passé contrôle le futur». Ce retour du «temps long» informera nos décisions pour demain. Le professeur Andrea Rinaldo, qui dirige le Laboratoire d’Ecohydrologie à l’EPFL, s’intéresse par exemple à la reconstruction de l’histoire de Venise pour produire des modèles pour les villes du futur.
– Et nous revoici à Venise…
– Les Vénitiens ont choisi de s’implanter dans un espace inhospitalier, dans lequel ils ont véritablement terraformé la ville, îlot par îlot. C’est un lieu qui leur a donné une protection par rapport aux agressions extérieures et dans lequel s’est instauré un rapport de coévolution avec l’environnement, qui a duré plus de mille ans. Et pendant tout ce temps, Venise est parvenue à se maintenir en tant que république, dans un monde où ce n’était de loin pas le mode de gouvernement courant. On pourrait argumenter qu’il s’agit là d’un modèle de développement durable, et se demander comment le système a su évoluer en permanence pour s’autoréguler. Ce passé dense, qu’on reconstitue à partir de ses traces et dans lequel on pourra naviguer, c’est ainsi une sorte de laboratoire: ce sont des millions d’heures d’expériences qui ont déjà été faites, où nous pouvons trouver des exemples, mais aussi mettre au point des manières de faire des hypothèses et des simulations sur le futur. Ces hypothèses ne prendront plus la forme de dialogues dans lesquels chacun explique sa théorie: on déploiera nos hypothèses sous une forme algorithmique et les algorithmes s’opposeront à d’autres algorithmes.
– En quoi cette approche diffère-t-elle des méthodes statistiques de l’histoire quantitative?
– Nous sommes toujours capables d’aller dans le détail, d’étudier un cas particulier. Pour l’histoire de l’art, par exemple, c’est très intéressant de comprendre comment était organisé l’atelier de peinture de Jacopo Bassano et comment on peut le comparer – ou non – à la production des industries culturelles aujourd’hui. On trouve déjà au XVIe siècle les notions d’«usine» à faire des tableaux à partir de motifs standardisés, de copie de modèles à succès, d’adaptation au marché. L’idée, c’est de suivre la trajectoire de chaque tableau et de comprendre le réseau européen de ces échanges. En restant toujours dans une approche multi-échelle, où on peut passer de l’ensemble au détail, zoomer sur un individu comme on le fait sur Facebook ou voir la société dans son ensemble avec des indicateurs statistiques. Il y a des centaines de milliers d’individus qui sont décrits dans les archives de Venise à travers des informations éparses, disparates: l’enjeu consiste à relier les données entre elles et à reconstituer des biographies, elles-mêmes entrelacées à un réseau de lieux et de productions.
– Le passé, clé du futur via le Big Data – c’est ce que décrivait le romancier Isaac Asimov dans son «Cycle de Fondation», où une discipline appelée «psychohistoire» montrait que l’avenir était statistiquement déterminé…
– Oui, mais ce que dit Asimov, c’est que ceci est vrai à condition que les gens n’aient pas accès au système de prédiction et ne tentent pas de le manipuler. Ce qui nous renvoie à l’enjeu compliqué du secret des algorithmes ou de leur ouverture. L’argument facile contre Google consiste à dire qu’on ne sait pas comment leurs algorithmes fonctionnent – comment, par exemple, l’ordre des résultats de recherche est déterminé. Selon l’idéologie de la transparence, si quelqu’un cache quelque chose, il y a forcément un danger. Mais tout système d’organisation automatique de l’information dont on peut ouvrir la boîte noire est susceptible d’être manipulé. C’est d’ailleurs ce qui s’est passé. Quand Google a expliqué le principe de son algorithme de classification, PageRank, des stratégies sont apparues pour améliorer artificiellement le placement de certains résultats, en créant des «fermes» de liens qui généraient automatiquement des constellations de pages se citant mutuellement. Et c’est ainsi qu’une espèce de guerre a commencé. Google s’est protégé en mettant au point un système avec de très nombreux paramètres, dont personne ne sait comment il marche. On s’en émeut, mais il est désormais clair que si le système était public, il serait intentionnellement abusé. Il faut trouver une gouvernance technologique qui fonctionne – et peut-être comporte-t-elle une part de secret.