Depuis la nuit des temps, la montée de l’information s’accompagne d’une nostalgie. Socrate s’en épanchait il y a vingt-quatre siècles dans les dialogues de Platon: l’écriture «produira l’oubli dans les âmes en leur faisant négliger la mémoire», déplorait-il. Deux mille ans plus tard, Leibniz s’émouvait de «cette horrible masse de livres qui continue à croître»: elle conduira à la barbarie, annonçait-il, «car à la fin le désordre deviendra quasiment insurmontable». Trois siècles plus tard, c’est-à-dire aujourd’hui, on succombe à la «fatigue de l’information», introduite en 2009 dans l’Oxford English Dictionary: «Apathie, indifférence ou épuisement mental provoqué par l’exposition à un excès d’information.» L’écrivain David Foster Wallace appela ce trop-plein «le Bruit total».

Tambours

James Gleick est, lui, un enthousiaste. Historien des sciences états-unien, entrepreneur précoce du Web, vulgarisateur, auteur d’un ouvrage remarqué sur la théorie du chaos, il parcourt le champ entier de la notion d’information, des tablettes d’argile à la Silicon Valley et de l’ADN aux trous noirs, dans son dernier livre, paru en 2011 en anglais et traduit aujourd’hui. Son chapitre le plus fascinant se situe un peu en marge de ce périple: c’est celui qu’il consacre aux tambours africains.
Aux yeux des Européens qui se les firent traduire, les battements avec lesquels les Africains se parlaient d’un village à l’autre paraissaient bavards. Au lieu de dire «Reviens à la maison», les coups frappés disaient: «Fais revenir tes pieds comme ils sont partis, fais revenir tes jambes comme elles sont parties, enracine tes pieds et tes jambes dans le village qui est le nôtre.» Pourquoi tant de mots? On pouvait attribuer cela à la prolixité de peuples qui ignoraient les vertus informationnelles de la parcimonie. Mais les voyageurs blancs étaient contraints de reconnaître l’efficacité du procédé. Les natifs savaient transmettre «non seulement les nouvelles et les avertissements, mais aussi les prières, la poésie et même les blagues». Leurs messages, «relayés de village en village, pouvaient parcourir une centaine de kilomètres en l’espace d’une heure». La percussion africaine réalisait ainsi un rêve après lequel l’Occident courait en vain depuis l’Antiquité. «Personne au monde ne pouvait communiquer autant, aussi vite et aussi loin que les Africains avec leurs tambours.»
Le secret? Lorsque le télégraphe électrique et l’alphabet Morse virent le jour, dans les années 1840, on imagina que les tambours d’Afrique parlaient de la même façon: en code. La piste s’avéra fausse. Le missionnaire anglais John F. Carrington élucida le mystère en 1949 dans son livre The Talking Drums of Africa. Explication en trois étapes. 1) Le sens des mots dans les langues africaines n’est pas seulement donné par des voyelles et des consonnes, mais également par la prononciation «haute» ou «basse» de chaque syllabe: en langue kele, lisaka peut signifier «flaque», «promesse» ou «poison», suivant ces inflexions.2) Les tambours ont, eux aussi, deux sonorités, une haute et une grave. Ils ne transmettent pas les voyelles et les consonnes d’un mot, seulement ses tons hauts et bas. Le résultat est ambigu, car le même double coup peut signifier «père», «lune», «poulet» ou «n’importe quel mot ayant deux tons hauts». 3) Chaque mot est accompagné d’autres mots qui servent à le préciser: on dit «Le poulet, le petit animal qui dit kiokio», par exemple. Cette accumulation clarifie le sens de chaque mot et livre ainsi l’information. D’où la redondance, la prolixité. «Chaque mot ambigu commence dans un nuage d’interprétations possibles; les possibilités non voulues sont écartées au fur et à mesure», note James Gleick. Le «problème de conception» de cette communication «avait été résolu collectivement».

Le règne du «bit»

La production d’un message par la réduction progressive de l’incertitude est au cœur non seulement de la technique des tambours, mais également de la théorie de l’information. Celle-ci voit le jour en 1948 sous la plume d’un pionnier méconnu, Claude Shannon, ingénieur et mathématicien états-unien qui conceptualise le «bit» comme unité de mesure fondamentale. A partir des années 50, l’information devient le paradigme essentiel pour décrire le vivant (avec la génétique et la biologie moléculaire), l’esprit humain (avec la psychologie cognitive), l’économie («l’argent se compte en bits stockés») et la réalité de l’univers elle-même qui, au niveau quantique, est faite d’information.

Côté romanesque

James Gleick fait quelques méandres théorico-techniques en amont et en aval de ce tournant. Si l’on n’est pas familier avec la logique formelle, les mathématiques ou la mécanique quantique, ce n’est pas ici qu’on parviendra à les apprivoiser. On retiendra alors le côté romanesque de l’aventure. Celui qui entoure par exemple les figures d’Ada Lovelace et de Charles Babbage. En ce temps-là, dans l’Angleterre du début du XIXe siècle, le calcul était «une industrie villageoise»: les données astronomiques utilisées pour la navigation étaient consignées dans des tables établies par des «calculateurs» qui étaient, en fait, des humains en chair et en os, travaillant à domicile.

Calculs à vapeur

A l’ère où la mécanisation se met en place dans un nombre croissant de branches industrielles, Babbage, savant polyvalent et génie excentrique, se prend à rêver «que ces calculs soient exécutés par une machine à vapeur». Ce sera moins fastidieux, pense-t-il, et plus précis: «Seule la fabrication mécanique de tables» (c’est-à-dire de répertoires de chiffres résultant de calculs) «rendra les erreurs impossibles». Babbage commence à construire sa machine à calculer en 1820. «Il consacra sa vie, qui fut longue, à y apporter des améliorations dont la plupart n’existèrent jamais que dans sa tête». La «machine à différences» avec ses dizaines de milliers de pièces ne sera jamais achevée, mais deviendra une attraction mondaine.

A traiter

C’est alors qu’Ada Byron, génie précoce des mathématiques, tombe là-dessus: la future comtesse de Lovelace devient l’assistante de Babbage, qu’elle entraîne dans un projet «plus visionnaire». La machine peut manier bien plus que des chiffres, dit la jeune femme: «Elle pouvait traiter tout ce qui est doté d’un sens. Elle pouvait manipuler le langage. Elle pouvait faire de la musique.» C’est ainsi que la machine à traiter l’information – l’ordinateur, si on veut – est conceptualisée pour la première fois au milieu du XIXe siècle.

Avance rapide: en 1965, le psychologue Siegfried Streusser conduit une expérience dans laquelle les sujets sont invités à piloter des tâches complexes en demandant qu’on augmente ou qu’on réduise l’information dont ils disposent. Résultat? Même quand la quantité de données les noie et que leurs performances en pâtissent, «les sujets continuent à demander davantage d’information». Troublant? L’écrivaine Margaret Atwood, qui déclare avoir été «aspirée dans la twittersphère comme Alice dans le terrier du lapin blanc» en 2009, trouve une réponse: «Disons simplement que c’est de la communication, et la communication est une chose qui plaît aux humains.» L’information, c’est apparemment une compulsion.