Publicité

L’intelligence artificielle décideuse de la vie ou de la mort financière des investisseurs

Un dommage causé par des algorithmes peut être lourd de conséquences. Un projet de la Commission européenne prévoit d’introduire la notion de responsabilité objective, selon Nicolas Ollivier, avocat chez Lalive, et Louise Morand, titulaire d’un master de droit de l’Université de Fribourg

Une piétonne à Wall Street, 8 février 2021. — © AFP
Une piétonne à Wall Street, 8 février 2021. — © AFP

L’intelligence artificielle (IA) a bouleversé notre vie à bien des égards. Dans le secteur de la finance, cela s’est notamment traduit par l’arrivée depuis déjà longtemps de logiciels calculant des options complexes et plus récemment des «robo advisors», des algorithmes préprogrammés gérant un portefeuille de manière automatisée.

Un rapport au Conseil fédéral de décembre 2019 a relevé plusieurs problèmes relatifs à l’intelligence artificielle. Selon celui-ci, «(il) n’est pas exclu que les futures applications de l’IA dans le secteur financier soient en contradiction avec les obligations de comportement imposées aux acteurs des marchés financiers par la réglementation actuelle».

Les obligations de diligence imposées en droit financier sont une source de difficultés pour l’application d’IA, sans doute plus qu’ailleurs. Par exemple, il est difficile, voire impossible, d’expliquer les décisions prises par l’IA dans des cas individuels à cause du phénomène de «boîte noire».

Le premier risque majeur est que la banque ne puisse alors identifier des erreurs de décision. Le second est que l’établissement financier ne soit pas en mesure de respecter ses obligations de comportement, d’information et de reddition de compte envers ses clients. Malgré les questions soulevées à propos de ces risques, le Département fédéral des finances n’a pas prévu de modification législative, mais reste tout de même attentif aux développements de l’IA en finance.

Le dommage d’un conseiller robot

Que se passe-t-il aujourd’hui pour un client qui subit un dommage sur un portefeuille géré par un «robo advisor»? Pour poursuivre l’établissement financier qui propose ce robo advisor, l’investisseur a la charge de prouver l’existence d’une violation du contrat, d’un dommage, et que le dommage a été causé par la violation du contrat. C’est là que le bât blesse. Il peut s’avérer difficile et très coûteux, voire impossible, pour l’investisseur de prouver la violation du contrat et le lien entre le dommage et cette violation en raison de l’opacité du système d’IA. En cas d’échec de la preuve, le client lésé n’est pas indemnisé.

Un autre exemple est le cas des options complexes largement vendues en Suisse. Pour ces produits, la banque agit en tant qu’agent de calcul qui valorise l’option en cas de chute des marchés, puis débite le compte du client d’un montant pouvant représenter des millions de francs suisses. Le logiciel de la banque peut ainsi décider de la vie ou de la mort financière d’un client, qui a souvent les plus grandes difficultés à faire vérifier par un expert indépendant des calculs potentiellement erronés. En effet, les banques refusent généralement de divulguer les paramètres et les détails des calculs de valorisation du produit en dehors d’une procédure judiciaire.

La protection de l’investisseur

Afin de mieux protéger l’investisseur, une solution consisterait à renverser le fardeau de la preuve quant à la violation contractuelle et au lien de causalité entre le dommage et la violation contractuelle. L’établissement financier devrait alors démontrer, en cas de dommage, que l’algorithme a correctement agi afin de se libérer de toute responsabilité. Le Conseil fédéral a abandonné en 2015 un projet de renversement du fardeau de la preuve après la consultation des milieux financiers pour la nouvelle loi sur les services financiers entrée en vigueur en 2020.

Au parlement, il n’y a pas de projet de responsabilité civile spécifique à l’IA. Il en va autrement à Bruxelles où la Commission présentera bientôt un règlement. D’après le projet de la Commission des affaires juridiques d’octobre 2020, l’IA serait soumise à un régime de responsabilité objective. Il suffirait de prouver que le dommage a été causé par une activité, un dispositif ou un procédé piloté par un système d’IA pour que la responsabilité soit engagée. Seules les IA à haut risque listées en annexe du règlement seraient toutefois concernées.

Le projet définit un haut risque comme «un risque important, dans un système d’IA opérant de manière autonome, de causer […] un dommage à une ou plusieurs personnes d’une manière aléatoire et qui va au-delà de ce à quoi on peut raisonnablement s’attendre». Cette qualification dépendrait également de plusieurs facteurs, dont la gravité du dommage potentiel et du degré d’autonomie du système d’IA et de son utilisation. Pour les autres IA, l’UE prévoirait une responsabilité avec présomption de faute.

Dès lors qu’un dommage serait démontré, l’opérateur de l’IA devrait prouver l’absence de faute pour se libérer. Il reste à voir si, avec ce règlement européen, l’IA dans le secteur financier sera considérée comme à haut risque. Vu l’incidence significative que l’IA peut avoir sur la situation financière de l’investisseur, ce serait souhaitable. Le cas échéant, la Suisse devrait alors emboîter le pas à l’UE pour éviter une trop grande disparité du niveau de protection de l’investisseur.

Lire aussi: Intelligence artificielle: le futur de la finance est humain