Mes finances, mes projets, ma vie
19 décembre 2024

IA: un outil à manipuler prudemment en matière d’investissement

Le succès fulgurant et mondial de ChatGPT a révélé au grand public une tendance de fond: les nouvelles possibilités offertes par l’intelligence artificielle (IA) pour améliorer l’efficacité d’un grand nombre de secteurs économiques. À tel point que certains s’imaginent déjà se reposer sur l’IA pour gérer de manière autonome leur portefeuille d’investissements. Mauvaise idée, surtout si on n’est pas un expert en la matière. Explications.

Ce qu’il faut retenir

    • Il ne faut pas succomber à l’illusion que des IA comme ChatGPT peuvent tout faire et vous aider à gérer seul votre portefeuille d’investissement.
    • Il est essentiel de savoir évaluer la pertinence des propositions d’investissement de l’IA et de pouvoir déceler les corrélations fallacieuses qu’elle génère en traitant des quantités astronomiques de données.
    • L’exploitation à grande échelle d’algorithmes « prêts à l’emploi » risque de favoriser un comportement grégaire pouvant conduire à des épisodes d’illiquidité et à l’émergence de nouveaux risques systémiques.
    • À ce jour, l’humain demeure capable de prendre des décisions plus éclairées que l’IA en tirant parti de ses connaissances, de son expérience et de son intelligence situationnelle. C’est particulièrement vrai dans des environnements singuliers et face à des situations inattendues.
    • L’IA peut constituer une aide à l’investissement, à condition d’être supervisée par un expert capable de vérifier la pertinence de ce qu’elle propose en matière de qualité des données, d’explicabilité, de stabilité et de performance.

Si cela fait déjà plusieurs années que l’IA se développe dans le monde de la finance, le phénomène ChatGPT a sans doute donné un coup d’accélérateur à la démocratisation de cette technologie. Pour autant, comme toute nouvelle technologie, l’IA doit être manipulée avec précaution. Surtout lorsqu’on n’est pas un spécialiste. En la matière, il faut savoir garder la tête froide et exercer son jugement critique, sous peine de risquer de sévères déconvenues. Pas question de se lancer sans se reposer également sur l’expertise d’un professionnel chevronné.

L’IA dans le monde de la finance

L’IA est déjà présente dans le monde de la finance. Le trading, l’allocation d’actifs, la gestion des risques ou même l‘évaluation de crédits ne sont que quelques-uns des domaines où elle permet déjà de réels gains d’efficacité. Selon le FMI, les dépenses en matière d’IA dans le secteur financier devraient doubler d’ici 2027 pour atteindre 97 milliards de dollars.

Comme toute nouvelle technologie, l’IA n’est pas seulement porteuse d’opportunités, mais aussi de risques. Si les professionnels prennent ces derniers très au sérieux, il n’est pas toujours évident pour les investisseurs particuliers de comprendre les enjeux et de tempérer leur enthousiasme face à de nouveaux « jouets » comme ChatGPT ou d’autres solutions d’IA.

Un des principaux risques est celui de croire aveuglément en la machine et dans les données qu’elle fournit. Cela d’autant plus que de nombreuses « IA prêtes à l’emploi » voient le jour en donnant l’illusion à chaque individu qu’elles peuvent tout faire, y compris les aider à gérer seuls leur portefeuille d’investissement. Pour comprendre en quoi cet aveuglement est risqué, un exemple fictif vaut mieux qu’une explication détaillée.

Un des principaux risques est celui de croire aveuglément en la machine et dans les données qu’elle fournit.

De l’euphorie au krach boursier

Imaginez la situation suivante. Vous avez décidé de recourir au service d’un logiciel d’IA pour gérer vos investissements. Un logiciel prêt à l’emploi qui vous promet des conseils d’investissement personnalisés sur la base d’un algorithme qui s’adapte à vos besoins et se nourrit d’une gigantesque quantité d’informations de qualité.

Tandis que vous êtes à la recherche de nouvelles opportunités, le logiciel attire un matin votre attention sur une information importante. Cela pourrait bien être l’indice d’une tendance à suivre pour investir sur des entreprises avec succès. En gros, votre logiciel vous informe qu’une société a analysé et comparé, également à l’aide de l’IA, des milliers d’entretiens et conversations de dirigeants d’entreprise et les résultats de leurs sociétés. La comparaison de l’évolution du cours de l’action par rapport à l’analyse de « traitement du langage naturel » a fait ressortir une corrélation intrigante: les entreprises dont les dirigeants disent plus souvent « s’il vous plaît », « merci » et « je vous en prie » que les autres affichent une meilleure performance du cours de bourse de leurs actions. Sur cette base, l’IA vous suggère d’investir massivement dans lesdites entreprises. S’agissant d’entreprises aux profils très diversifiés, l’IA n’émet pas de réserve particulière. Elle affirme tant la sureté que l’efficacité de sa recommandation d’investissement.

Quelques temps plus tard, votre logiciel vous suggère également d’investir massivement dans des entreprises qui fournissent un effort particulier en matière de RSE. Après tout, il se pourrait qu’il y ait un lien entre ces critères « responsables » et la performance, puisque la politesse mise en avant précédemment semble indiquer que les firmes sous revue dans l’étude soignent leur volet social. Au fil des semaines, vous voyez l’action des dites entreprises s’apprécier, ce qui vous conforte dans votre résolution de suivre l’IA. Pourtant, un beau matin, les choses changent et prennent un tournant très déplaisant.

Les premières entreprises aux patrons polis identifiées par votre IA publient leurs résultats et ceux-ci s‘avèrent très mauvais. Résultat, les cours de leurs actions s’effondrent. Bien entendu, vous souhaitez vendre et vous retirer au plus vite de ces investissements, mais vous ne trouvez pas preneur. Vous réalisez enfin que, loin d’avoir bénéficié d’un conseil personnalisé, la recommandation de votre logiciel a été diffusée auprès d’un très grand nombre d’investisseurs. Comme vous, ils s‘en sont remis à l’IA, ont acheté massivement les actions de ces entreprises, ce qui a fait gonfler leurs cours de bourse dans un premier temps. Maintenant que les résultats sont publiés, plus personne ne veut acheter ces actions, tout le monde veut les vendre et la perte en investissement est énorme.

À cette situation déjà douloureuse s’ajoute un autre souci. Cette panique sur les marchés génère une crise de confiance généralisée sur le secteur de la RSE qui n’avait pourtant rien à voir avec les entreprises de départ. Les investisseurs associent désormais la RSE à de la poudre aux yeux et veulent s’en dégager massivement. Le krach boursier RSE est proche et l’issue semble complexe car le risque est dilué sur un grand nombre d’acteurs. Ce qui avait commencé comme un risque de faillite pour certains acteurs se transforme en une crise systémique qui pourrait faire vaciller tout le secteur financier.

Comment a-t-on pu en arriver là? Comment l’IA a-t-elle pu se tromper à ce point? Tout simplement parce que le schéma trouvé entre la politesse de certains chefs d’entreprise et les résultats de leur cours de bourse n’était qu’une corrélation fallacieuse et nullement un effet de causalité pouvant prédire l’avenir. La leçon arrive tard et elle est apprise dans la douleur.

Une simple corrélation fallacieuse ne doit en aucun cas guider des choix d’investissement.

Comprendre ce scénario catastrophe fictif

Cet exemple vous paraît extrême? Sachez qu’il est pourtant à la fois réaliste et plausible. Tout d’abord parce que la corrélation entre politesse et performance d’entreprise a réellement été trouvé par une société d’analyse américaine nommée Prattle grâce à son logiciel de traitement de langage naturel. Ensuite parce qu’un lien de causalité pouvait sembler plausible et que cela atténue la vigilance. Pourtant, lorsque Prattle a ajusté ses résultats en fonction de l’évolution du marché et des mouvements sectoriels sur les deux jours suivant l’appel à bénéfices, l’effet de la politesse avait pratiquement disparu. Il s’agissait d’une simple corrélation fallacieuse ne pouvant en aucun cas guider des choix d’investissement.

Pour fonctionner, l’IA traite de son côté des quantités colossales de données et, comme il est coutume de dire en statistiques, plus on cherche plus on trouve. En étudiant le mode de fonctionnement de l’IA, on sait aujourd’hui que plus les ensembles de données augmentent, plus ils doivent contenir des corrélations arbitraires. Ces corrélations apparaissent simplement en raison de la taille des données traitées. Et bien que nombre de ces corrélations soient fallacieuses, elles sont pourtant utilisées pour tenter de prévoir l’avenir sur les marchés. Certains schémas trouvés par ces mécanismes que l’on nomme parfois « overfitting » vont ainsi être utilisés pour élaborer des stratégies qui peuvent peut-être fonctionner par chance à court terme, mais qui ne garantissent en rien un succès récurrent à plus long terme.

Avec la démocratisation des outils d’IA en finance, le sujet est d’actualité puisque de plus en plus d’acteurs, y compris néophytes, vont se retrouver confrontés aux propositions d’investissement d’IA et n’auront peut-être pas la capacité d’en évaluer la pertinence. Les corrélations fallacieuses ne sont pas nées avec l’IA. Elles ont toujours existé sur les marchés. C’est précisément pourquoi les professionnels de la finance vérifient toujours la pertinence des schémas trouvés avant d’investir. Par exemple, saviez-vous que la que la production de beurre au Bangladesh est étroitement liée aux rendements du marché boursier américain? C’est bien une corrélation, mais seul un esprit humain est capable aujourd’hui de déceler l’absurdité de garder une telle corrélation dans un modèle financier prédictif.

Les professionnels de la finance vérifient toujours la pertinence des schémas trouvés avant d’investir. Le néophyte rarement.

Des risques pouvant aller jusqu’à la crise systémique

Il est important de manipuler l’IA avec précaution et surtout de ne pas prendre pour argent comptant les données présentées. Outre la dissémination des corrélations fallacieuses, d’autres risques peuvent émerger avec l’IA.

    • Garbage in, Garbage out. Comme l’illustre l’exemple de corrélation fallacieuse présenté, une mauvaise qualité de données peut engendrer de faux résultats. En statistiques, on affirme fréquemment « Garbage in, Garbage out », comprenez que si de mauvaises données sont fournies à l’entrée, il ne faut pas s’attendre à avoir de bons résultats à la sortie. Beaucoup de modèles d’IA se basent aujourd’hui sur des ensembles de données créés par des humains, qui ont potentiellement inséré des erreurs ou des biais. Cela peut notamment engendrer la perpétuation de discriminations ou d’erreurs en véhiculant des corrélations fallacieuses comme celle de la production de beurre au Bangladesh.
    • Des boîtes noires difficiles à percer. Tout comme les réseaux de neurones, certains systèmes très élaborés d’IA obéissent à une logique qui leur est propre et qu’il est impossible de comprendre pour un cerveau humain. Il existe donc un certain manque d’explicabilité et cela pose un vrai problème pour ajuster des stratégies d’investissement. En effet, il est impossible dans ces conditions de savoir quoi changer en cas de mauvaise performance ou quoi répliquer sur un autre modèle si la performance est au rendez-vous. Impossible également de déterminer si le succès de la stratégie est effectivement dû à la supériorité du modèle d’IA et à sa capacité d’extraire les relations sous-jacentes aux données traitées, ou si d’autres facteurs en sont la cause.
    • Du comportement grégaire à la chaîne de réactions négatives. L’exécution simultanée de ventes ou d’achats massifs par des traders utilisant des modèles similaires basés sur l’IA pourrait créer de nouvelles sources de vulnérabilité. Comment? En générant de la volatilité sur les marchés et de l’instabilité liées à des épisodes d’illiquidités. Le déploiement à grande échelle de mêmes modèles d’IA pourrait amplifier l’interconnexion des marchés financiers et des institutions de manière inattendue, en augmentant potentiellement les corrélations et les dépendances de variables qui n’étaient pas liées auparavant. En outre, l’utilisation d’algorithmes « prêts à l’emploi » par une grande partie du marché pourrait entraîner un comportement grégaire, une convergence et des marchés à sens unique, amplifiant encore les risques de volatilité. En l’absence d’acteurs sur le marché « disposés » à jouer le rôle d’amortisseurs en prenant le contre-pied des transactions, ce comportement grégaire pourrait conduire à des épisodes d’illiquidité, voire à la création de nouveaux risques systémiques.

L’humain doit rester aux commandes

À côté des opportunités qu’elle rend possible, l’IA comporte son lot de risques. Cela est d’autant plus vrai en investissement que les marchés financiers sont, de par leur nature, des environnements instables qui se prêtent mal l’exploitation de modèles prédictifs automatisés s’appuyant sur le passé pour deviner l’avenir. Certes, l’IA va apprendre, progresser et s’adapter. Toutefois, à l’heure actuelle et particulièrement dans une situation inattendue, l’humain est capable de prendre des décisions plus éclairées en tirant parti de ses connaissances. Son intelligence situationnelle surpasse encore de très loin celle de l’IA.

L’IA ne dépasse pas (encore) l’intelligence humaine et si vous souhaitez incorporer l’IA dans votre stratégie d’investissement, nous vous recommandons vivement de le faire par l’intermédiaire d’un professionnel chevronné. Il sera à même de vérifier ce que propose la machine en matière de qualité des données, d’explicabilité, de stabilité et de performance. Ce n’est clairement pas le moment de confier la gestion de son plan épargne retraite ou de son patrimoine à ChatGPT. L’IA n’est pas mauvaise en soi, mais il est essentiel de mettre en garde l’investisseur néophyte: la bonne exploitation de cette technologie demeure complexe.