Le 18 avril 2015, le cours du titre Twitter a chuté de 6%. A l’inverse, les prix des instruments de couverture de cette action ont fortement augmenté. A l’origine du phénomène, la société américaine Selerity, qui collecte notamment les données des réseaux sociaux et des chats, et, lorsque des employés subalternes de Twitter s’y trahissent, leurs traces restent prisonnières des algorithmes de Selerity. L’entreprise s’est spécialisée dans la traque aux annonces de résultats avant que ceux-ci ne soient publiés.

Ses principaux abonnés sont des analystes de hedge funds, des gestionnaires d’actifs et les systèmes d’analyse vocale des opérateurs de négoce automatisés. Même si, dans la fintech, des sujets tels que les robo-advisors, le mobile banking et le personal finance management (PFM) sont en vogue, les investisseurs ne retirent à vrai dire pas davantage de leur argent – sauf s’ils ont la chance d’être actionnaires de ces entreprises.

Nouvelles approches de la surperformance

Les outils et les plateformes fintech simplifient certes les opérations bancaires et les rendent plus attrayantes. Mais il est rare qu’ils entraînent une performance supérieure au marché. Du coup, un certain nombre de jeunes entreprises se sont discrètement établies et contribuent à améliorer la performance par de nouvelles approches. Pour peu que les investisseurs sachent manier leurs outils et informations et interpréter leurs données.

A la base, il s’agit toujours, par d’habiles analyses et/ou avant les autres, de tirer davantage de certaines données que d’autres sociétés collectent. Ces dernières années, justement, les infrastructures indispensables ont réalisé de grands progrès. A la différence des années 1980 et 1990, quand de très coûteux superordinateurs analysaient les données du négoce, on peut aujourd’hui se contenter d’algorithmes améliorés, de nouveaux concepts de banque de données comme Hadoop et des infrastructures cloud avantageuses des grands fournisseurs que sont Amazon, Microsoft ou l’opérateur de télécoms.

Et contrairement à naguère, quand de telles analyses étaient l’apanage de rares «freaks», la pression à l’innovation provient aujourd’hui du service à la clientèle des hedge funds, des investisseurs en private equity, des banques d’investissement et des family offices pour superriches. Car ceux-là doivent bel et bien réaliser de belles performances pour conserver leur job; ils ne peuvent se contenter de nager dans le sens du courant comme le font les utilisateurs de robo-advisors ou d’outils PFM.

Analyser les fils d’information et Twitter

Selon les analystes de Citigroup, des possibilités toutes nouvelles sont nées des nouveaux procédés et moyens d’analyse: au lieu d’analyser des montagnes de données cachées dans des banques de données relationnelles, il est aujourd’hui possible d’analyser en temps réel des informations, des images sur le Net, des vidéos, des images satellitaires, des données de consommateurs et de chaînes logistiques.

Ces sources «nouvelles» sont beaucoup plus accessibles que les traditionnelles, elles peuvent être laissées à l’état brut et être analysées plusieurs fois par des acteurs différents – et chacun en tirera un enseignement différent. Dans l’ensemble, il ne s’agit pas d’extrapoler des tendances mais de dénicher des corrélations pour en tirer les fondamentaux en vue d’une analyse prédictive.

Le procédé classique consiste à dépouiller le fil des infos de Reuters, de Bloomberg, de Twitter et de certains sites sur lesquels les banques centrales publient leurs décisions sur les taux. A chaque décision d’une banque centrale, on voit par exemple le dollar et la livre osciller fortement durant quelques minutes parce que les systèmes de négoce automatisés interprètent la même info de manière différenciée.

Données satellitaires

Autre procédé classique: l’exploitation des données de satellites, notamment sur les pronostics de rendement des récoltes, sur les dommages dus aux intempéries ou à un séisme ou sur les entrepôts dans les ports. L’entreprise Skybox, par exemple, développe des algorithmes permettant de mettre en lien les matières premières entassées dans les ports avec d’autres données logistiques. Des sociétés telles qu’Orbital Insight et RS Metrics fournissent les images satellitaires. Les photos sont alors traitées par des logiciels fonctionnant à la manière de la reconnaissance faciale automatique.

Même les meilleures données restent sans valeur en l’absence d’analyse. Les investisseurs misent sur une avance temporelle, un avantage concurrentiel (sur les tendances, les points d’inflexion, le momentum) ou des avantages structurels, par exemple quant à la valeur réelle de matières premières agricoles.

Dans la pratique, les modèles qui traquent les tendances, le momentum ou le rendement moyen tentent toujours de donner des signaux de vente ou d’achat: «Buy low, sell high.» Des systèmes couplés en parallèle passent dès lors d’un système à un autre suivant l’évolution du marché. De tels systèmes traditionnels fournissent une notable plus-value lorsque, par exemple, des données Twitter et des infos de téléscripteur y sont saisies en parallèle.

Législation lisible pour un ordinateur

Des sociétés telles que Lucena Labs, Able Alpha Trading ou Curation conseillent les gestionnaires d’actifs pour le développement de meilleurs algorithmes et des entreprises comme IDEO (qui avait longtemps conseillé le défunt patron d’Apple, Steve Jobs), Continuum, Doblin et Frog contribuent également en interprétant et en traduisant les données brutes en stratégie d’entreprise, processus et produits concrets.

La limite de la concurrence se situe dans le domaine de la mise en relation intégrée des données, de l’analyse et de la prévision: sur ces points, les chercheurs abandonnent de plus en plus leur tâche aux machines. Avec ses ordinateurs Watson, IBM cible de telles chaînes de processus intégrées qui dépassent toujours plus souvent les facultés humaines.

Le plus récent domaine d’application est d’ailleurs la régulation des marchés financiers: dans un domaine où, pour une banque comme UBS, 40 000 nouvelles prescriptions débarquent chaque année, les régulateurs sont eux-mêmes dépassés. A fin septembre, IBM a racheté l’entreprise new-yorkaise Promontory, une société de conseil comptant beaucoup d’anciens contrôleurs des finances: ses 600 experts sont désormais chargés de traduire la législation en vigueur, à raison d’une douzaine de règles par semaine, en consignes lisibles par un ordinateur.

A long terme, cela pourrait se révéler payant, puisqu’on estime que, dans le monde, la simple compréhension des textes légaux coûte quelque 20 milliards de dollars par an.


Algorithmes: le parking est-il complet?

Données d’événement

Des sociétés comme Dataminr ou Eagle Alpha analysent automatiquement les flux de données et Twitter pour reconnaître des échantillons avant qu’ils ne soient repris par des sites généralistes, par exemple la formulation des communiqués de presse avant les résultats trimestriels. Pour bien des événements, il y a une première alerte concrète.

L’australienne Isentia filtre les données en relation avec des événements déterminés. Avec sa Knewsapp, Minetta Brook passe automatiquement au peigne fin les données de texte pour y déceler des tendances. Facebook, Twitter et LinkedIn exploitent la soif de nouvelles sources que montrent les start-up en leur revendant certaines données. Twitter, par exemple, vit essentiellement de la vente de telles données, car ses concepts publicitaires ont tous échoué.

Données de consommation

Le comportement des consommateurs se comprend en combinant des données de transaction et de localisation. Des sociétés comme AddThis, ShareThis et Bitly filtrent les messages et les courriels pour y trouver des marque-pages et des partages de liens susceptibles de fournir des indications sur de nouvelles tendances de consommation. DataSift va même plus loin en reliant de telles données avec d’autres sources externes et avec ses propres outils d’interrogation et de préclassification.

Yodlee et Mint offrent aux prestataires financiers des services d’analyse pour données de cartes de crédit, de transaction et de compte. Placed est une entreprise qui a étendu les données de traçage des logisticiens avec les données de son propre panel de consommateurs afin de reconnaître les modes de comportement et les processus typiques.

Données d’entreprises

Il existe des sociétés de private equity qui exploitent les chiffres de vente des fabricants de tests antidrogues et d’alcootests en tant qu’excellents indicateurs avancés des données de l’emploi aux Etats-Unis et au Royaume-Uni. Les fonds qui investissent dans la titrisation immobilière recourent aux services de la société Airsage qui, par le biais des données de communication mobile, vérifie si les immeubles privés aux Etats-Unis sont occupés et par combien de personnes.

Grand classique de l’industrie: la détermination du nombre de places de stationnement sur les sites d’entreprises. Le résultat doit être croisé avec d’autres données pour éviter de se fourvoyer: un parking complet, c’est bien quand le site produit quelque chose; en revanche, c’est mal si l’immeuble abrite le département des ventes et du marketing.