ILB

AI Factory France – Verticale Finance

Table ronde sur l’impact de l’IA sur la finance

Mardi 3 février 2026 (palais Brongniart)

Jean-Jacques Pluchart

Le club Turgot a assisté au lancement de la Verticale finance de l’IA Factory, créé par  l’Institut Louis Bachelier, en collaboration avec le GENCI (Grand équipement national de calcul intensif). Le workshop a réuni des chercheurs et des acteurs de l’industrie financière sur le thème  de la transformation des pratiques de gestion des risques et des conditions nécessaires à une utilisation maîtrisée et fiable de l’IA générative  et des LLM, dans un environnement financier de plus en plus complexe. La table-ronde a été introduite par trois exposés.

Les enjeux de la numérisation de la finance

Marie Brière (DG de l’ILB) a souligné que la finance est l’un des plus grands utilisateurs de modèles quantitatifs, mais qu’elle reste largement absente des grands référentiels existants. L’AI Index de l’Université de Stanford  recense, sur plusieurs centaines de pages, les jeux de données (datasets) et les indicateurs de performance (benchmarks) en IA, sans consacrer de section spécifique aux services financiers. Elle souhaite donc un plus grand dialogue entre les chercheurs académiques et les praticiens sur les benchmarks applicables dans les différents champs de la finance. Les objectifs de la Verticale finance de l’IA factory sont d’identifier des cas d’usage concrets de l’IA en finance, de réfléchir à des bases de données de référence adaptées aux problématiques du secteur, de proposer des métriques pertinentes pour évaluer la fiabilité, la robustesse et la valeur ajoutée des modèles d’IA dans la gestion des risques, et enfin, d’identifier les services et ressources nécessaires pour faire avancer la recherche appliquée en IA pour la finance.

Les apports de l’IA en finance

 Charles-Albert Lehalle (professeur à l’École Polytechnique) a déclaré que la recherche de référentiels avait pour enjeu de réduire les temps – et donc les coûts – de recueil et de traitement des données, sans limiter leur fiabilité et leur efficience. Il préconise de mieux catégoriser les modèles en fonction de leurs objets (mesure de la volatilité et/ou de la liquidité), de leurs fonctions (génération de documents, gestion de portefeuille, construction de produits structurés, optimisation du reglement-livraison de titres…), et de la nature de leurs risques (de marché, de taux, opérationnels…). Un des intérêts de l’IA est notamment de multiplier les simulations des mouvements et des valeurs des titres, face à des « chocs » monétaires et/ou financiers. L’IA permet également de tester l’application à la finance de modèles déjà éprouvés dans d’autres disciplines (notamment la physique).

Les biais de l’IA en finance

Damien Challet (CentraleSupélec) a souligné l’importance d’un bon questionnement (par des prompts)  des  applications d’IA générative et de LLM, car leurs structures et leurs processus sont influencés  par les langages (notamment informatiques), mais aussi les formations et les cultures de leurs concepteurs. Pour traiter une même question, il conseille de consulter plusieurs sites et moteurs de recherche, de reformuler les prompts sous des libellés différents, de les rédiger dans des langages explicites et non implicites, de borner dans le temps la recherche de données, de corriger par des modèles spécifiques les biais éventuels de traduction. Il prédit que les QLM – ou versions quantiques des modèles de langage – qui sont encore au stade théorique, pourraient modifier à terme les modes d’entrainement des modèles et de correction des biais.

La  table ronde : L’IA en finance de marché : cas d’usage, benchmarks et métriques

La table ronde a principalement porté sur la façon dont l’IA transforme les pratiques de gestion des risques et sur les conditions d’une utilisation maîtrisée des modèles d’IA. Elle a réuni Laurent Carlier (Global Head of Data and AI Lab, BNP Paribas Global Markets), Gaetan Caillaut (Chercheur en IA chez Dragon LLm), Pascal Oswald ( Head of Market and Counterparty Risk Modelling, Natixis), Alain Durmus (Professor, École polytechnique) et Romuald Élie (Research Scientist, Google DeepMind). Le débat a été animé par Marie Scheid (PhD Student, École polytechnique).

Les débatteurs distinguent les outils appliqués aux processus courants de travail, à l’extraction et la gestion des données, à la  transformation et la génération de textes, à la simulation des risques de marché, au codage des algorithmes et à des fonctions spécifiques. Une part importante de la mise en conformité (due diligence) est désormais confiée à l’IA, qui l’exécute plus rapidement, de manière plus structurée et dans de meilleures conditions économiques, notamment grâce à des technologies avancées, comme le quantum computing.

Dans ces différents domaines, la difficulté réside dans le « changement d’échelle », à la fois de la masse des données traitées, de la puissance des modèles et de la complexité  des calculs (modèles de plus en plus multivariés et stochastiques). Une autre difficulté porte sur l’optimisation du rapport entre l’efficience du modèle et son coût de traitement. Des chercheurs s’efforcent de contruire des bases de données (datasets) naturelles ou synthétiques propriétaires ou ouvertes, et de tester des modèles-types standards (benchmarks). Ces derniers permettent de disposer d’un référentiel propriétaire et structuré, qui ne restreint pas la créativité, mais qui l’ancre dans la réalité financière. Les workflows guidés (couvrant des cas d’usage spécifiques) garantissent que chaque clause générée de manière unique conserve une cohérence interne, une lisibilité optimale et une stricte conformité à la fois financière, juridique et fiscale. Il est nécessaire de s’appuyer sur des applications  reposant sur des approches « agentiques », spécifiquement codées et entraînées pour des usages spécifiques, et capables d’exploiter des technologies de calcul avancées. Ces outils sont testés avant d’être validés par des comités internes aux banques ou aux compagnies d’assurances, avant d’être exploités par les praticiens. Le recueil et la diffusion des données sont par ailleurs soumis à divers réglementations publiques (comme le RGDP en Europe) et codes privés*.

Les débatteurs reconnaissent que ChatGPT est un modèle fondamental – un Large Language Model – relevant de l’IA générative. Il fournit des réponses générales, mais ne raisonne pas comme un spécialiste de la finance. Il faut disposer de connaissances financieres suffisantes pour savoir interroger correctement un outil comme ChatGPT et exploiter efficacement ses réponses.

Les technologies plus avancées, et en particulier l’IA agentique, marquent une évolution importante : elles permettent de passer de la simple génération de contenus à des capacités de cadrage, de décision et d’action plus opérationnelles. Ces approches permettent d’encadrer les modèles fondamentaux afin de les rendre plus précis et plus fiables dans des domaines spécifiques, mais surtout directement utilisables par des personnes ne disposant pas de connaissances financières avancées.

La plupart des orateurs souhaitent par ailleurs un retour à plus de « frugalité » dans les volumes des données traitées (structurées et non structurées), dans la puissance des modèles et la durée des apprentissages (notamment par renforcement). Ils souhaitent une mise en commun de la recherche de benchmarks dans les fonctions de base des métiers de la finance. Ils espèrent que des progrès seront réalisés dans le traitement des langages (linguistique) et des signes (cryptologie) qui sous tendent les données entrantes et sortantes des modèles. Le débat a également porté sur les « hallucinations » (incohérences) des résultats de certains traitements, qui résultent d’un changement non contrôlé de registre dans des calculs ou la génération de texte. Ces changements sont parfois imputables à des interprétations erronées des token traités par les systèmes. Un intervenant déclare que cetaines hallucinations peuvent être assimilées à des fulgurances créatives.

Les débatteurs estiment que les banques deviennent des « entreprises technologiques », si l’on considère la proportion croissante d’informaticiens dans leurs effectifs, sans que cela n’ait remis en cause le rôle des financiers ou des décideurs.

Le débat s’est poursuivi par la réponse à de nombreuses questions plus ou moins techniques, qui ont démontré que l’intégration de l’IA dans la finance est un vaste processus multidimensionnel   de « destruction créatrice » (au sens de Schumpeter) qui n’est encore qu’à un stade exploratoire.

*voir la chronique L’IA et le droit de la propriété intellectuelle   sur clubturgot.com.

© 2023 Created with Royal Elementor Addons