Vos finances

Comment expliquer 90% des variations boursières?

Les investisseurs se penchent généralement sur le multiple des bénéfices, soit le PER, pour évaluer la cherté d’un titre. Mais existe-t-il de meilleurs instruments pour analyser l’avenir possible des actions? Un modèle sans pilote comme pour l’automobile?

Les marchés sont devenus plus volatils. La tentation d’en profiter est parfaitement rationnelle. Mais comment l’investisseur peut-il évaluer la cherté d’une action? Par le multiple des bénéfices? Est-il possible de faire appel à un modèle de prévision qui ignore le travail des analystes financiers?

Le premier geste de l’investisseur consiste souvent à se pencher sur le multiple des bénéfices (PER) de la société visée. C’est aussi le premier indicateur fourni par les analystes financiers et la presse spécialisée. Facile à comprendre (plus il est bas et plus le titre est bon marché), le PER calcule le nombre d’années du dernier bénéfice net connu auquel une entreprise est valorisée par sa capitalisation boursière. Mais «contrairement à la théorie, il ne reflète que les conditions actuelles du marché et non pas les prévisions futures», critique le gérant Jeremy Grantham, dans la lettre trimestrielle de sa société GMO («Why are Stock Market Prices So High?»).

A lire aussi: Les marchés aiment que la croissance mondiale soit synchronisée

Cet expert des actions dans la valeur, dans la lignée de Warren Buffett et Benjamin Graham, a établi, il y a quinze ans, avec son collègue Ben Inker, un modèle d’évaluation, qui explique 90% des variations du PER et des actions depuis un siècle. Ils viennent d’ailleurs d’améliorer ses capacités. Tous deux n’ont pas cherché à prévoir l’avenir, mais à déterminer les réactions du marché aux principaux facteurs.

C’est donc un modèle que l’on pourrait qualifier de «comportemental». Les deux plus importants moteurs des variations boursières sont très clairement la marge bénéficiaire (plus elle est élevée et plus la bourse l’est aussi) et l’inflation (stable ou en légère baisse si possible, mais pas trop basse).

Le poids des biais comportementaux

La réponse de la bourse est très différente de ce que l’on devrait théoriquement attendre d’un marché efficient. Dans un monde rationnel, les actions devraient se vendre à leur coût de remplacement. Donc une marge bénéficiaire très élevée devrait exiger un PER bas. D’une autre manière, on pourrait dire qu’une marge très élevée aura tendance à revenir à la moyenne. Dans le passé, le marché a toujours préféré des marges très élevées, observe Jeremy Grantham. Cela signifierait que l’investisseur devrait éviter d’acheter quand la marge est basse.

Une telle stratégie aurait conduit à rater le début de la forte hausse qui a démarré en 1982. «C’est peut-être la plus grande inefficience du marché», avance Jeremy Grantham. Pour vendre à la juste valeur (fair value), soit au coût de remplacement, la marge bénéficiaire devrait s’accroître lorsque le PER diminue, ou vice versa (corrélation négative).

Il en va de l’inflation comme de la marge bénéficiaire. En réalité, les investisseurs n’aiment pas que l’inflation accélère. Pourtant, observe Jeremy Grantham, les actions sont des actifs réels. Elles ne devraient pas réagir au renchérissement.

A lire aussi: Joyeux anniversaire, chère crise financière!

Un troisième facteur, moins important que les deux précédents, contribue aussi à la variation du marché. Il s’agit de la volatilité de la croissance économique, selon GMO. Les investisseurs n’aiment pas du tout de fortes variations du PIB, même à la hausse.

Les améliorations effectuées par Jeremy Grantham à son modèle explicatif ont été réalisées pour prendre en compte deux facteurs. Le premier est un signal d’arrêt/marche, qui veut que le PER baisse après un trimestre négatif pour le marché. Le deuxième est le taux à dix ans des obligations souveraines américaines (signal négatif si le taux monte).

Le modèle de Grantham et Inker explique très bien le PER record de 1929, le record de 1965, les plus bas extrêmes des années 1930, 1974 et 1982. L’exception qui confirme la règle, c’est le sommet de la bulle en 2000. Ce niveau record a été supérieur d’un tiers au niveau attendu.

Un krach semble improbable

Jeremy Grantham, adversaire de la théorie de l’efficience du marché, selon laquelle toutes les informations sont contenues dans les cours du moment, avoue qu’il aurait «attendu que les investisseurs réagissent la plupart du temps à toutes les données dont ils disposent. Pourtant, ils ne le font pas», écrit-il.

A lire aussi: Joyeux anniversaire: le marché haussier fête ses huit printemps

Qu’en est-il du marché actuel? «Si nous prévoyons que le marché revienne à sa moyenne historique en termes de marge et d’inflation, le PER devrait aussi revenir à la moyenne. Si nous n’y revenons pas, le PER restera élevé», indique-t-il. Cela signifie que si l’investisseur s’attend à un krach, il devrait anticiper une chute des marges bénéficiaires ou une forte hausse de l’inflation.

Ces deux événements sont peu probables il en convient. Son conseil aux investisseurs: être influencé par les données historiques. En effet, elles expliquent assez bien les variations du marché depuis un siècle. Le modèle de Grantham est un bon «reflet de la nature humaine, aussi économiquement inefficiente et peu sophistiquée soit-elle».

Combiner les algorithmes et l’homme

L’homme est faillible, mais les modèles mathématiques également. Des chercheurs s’en sont aperçus en tentant de savoir si, le bénéfice futur étant un élément clé de l’évaluation, l’investisseur devait faire confiance aux prévisions bénéficiaires des analystes ou aux modèles mathématiques. Comme sur le marché automobile à la recherche de la voiture sans chauffeur, il n’est pas aisé de se passer de toute intervention humaine sur les marchés financiers.

La meilleure solution pourrait être de combiner les algorithmes et l’homme, selon une étude de Ryan Ball et Eric Ghysels (Automated Earnings Forecasts: Beat Analysts or Combine and Conquer?). Jusqu’ici, en termes de précision des prévisions, les analystes financiers sont meilleurs que les modèles parce qu’ils disposent d’un nombre supérieur d’informations et qu’ils peuvent les ajuster plus fréquemment. Les auteurs améliorent les modèles de prévision en faisant intervenir de nouveaux critères qui réduisent les erreurs. Mais ils montrent surtout que la combinaison des modèles mathématiques et des travaux d’analystes réduit le taux d’erreur des analystes.

Publicité