LES IMPACTS DE L’IA GENERATIVE SUR LES METIERS DE LA FINANCE

(2ème partie)

Les observations précédentes permettent de dégager plusieurs heuristiques utiles à la compréhension des impacts de l’IA générative. Ces perceptions sont fondées sur des rapports au temps et à l’espace, qui sont les deux formes sensibles de la conscience selon Kant, et sur des rapports à l’Autre et au langage, qui sont des concepts fondamentaux de la psychanalyse selon Lacan.

Le rapport au temps et à l’espace

Les sujets interrogés sont confrontés à des rapports paradoxaux au temps. Les représentations des temporalités de l’IAg sont à la fois technologiques (l’IAg accélère les processus), économiques (elle confirme des tendances), sociales (elle implique simultanément tous les acteurs d’un milieu) et psychologiques (la rapidité de l’innovation entraîne une perte de repères chez ses utilisateurs). Les échelles temporelles diffèrent selon l’âge, l’expérience, le métier, le milieu social et l’époque du sujet. Les projections de l’IAg peuvent revêtir la forme de prophéties auto- réalisatrices par les effets de mimétisme (Girard, 2002) qu’elle engendre. Ce constat rejoint celui de Blanqué (2022), qui a analysé l’évolution de la temporalité psychologique des acteurs de la crise pandémique, traduite par « les recompositions de leurs schèmes de mémoire, les épisodes de leur mise en oubli et de leur retour de mémoire, la superposition du temps physique et du temps psychologique, l’incertitude attachée au temps psychologique et les cycles réel, financier et viral sous-jacents à la crise ». Blanqué (2024) a étendu ce constat à la perception du temps en finance, qui selon lui comporte des dimensions à la fois économique (l’épargne, l’investissement et l’endettement), institutionnelle (« les choix et les mandats »), événementielle (le « temps des horloges ») et psychologique (à la fois collective et individuelle).

            Les représentations de l’IAg sont également influencées par les approches de l’espace, plus ou moins local (l’acteur s’estime protégé par les barrières à l’entrée de sa « niche » socio-professionnelle) ou global (il pense au contraire couvrir un champ d’action trop large et trop hétérogène, dont « l’avenir est trop improbable » (Knight, 1921), pour être modélisable par un algorithme. Il estime que son espace est trop morcelé et comporte des risques technologiques, systémiques, sociaux et/ou psychologiques, difficilement mesurables et paramétrables.

Les rapports (ou « aversions ») au risque ressentis par les conseillers et leurs clients dépendent de leurs perceptions des horizons (plus ou moins longs) et des marchés (plus ou moins risqués) de leurs placements.

Le rapport à l’Autre et au langage

Mais la perception des impacts de l’IAg dépend également et surtout du rapport à l’autre – ou plutôt à l’Autre – défini par Lacan (1969) comme « ce à partir de quoi le discours se constitue ». La perception des impacts de l’IAg dépend de la croyance en sa capacité à reproduire des discours sur des « connaissances communes ou des connaissances mutuelles » (Giraud et Alombert, 2024), à traduire par le langage des manifestations conscientes mais aussi inconscientes de la psyché d’un sujet, donc à révéler ses désirs et ses affects. La réflexivité du rapport à l’Autre est la condition préalable à toute relation de confiance. La perception des impacts de l’IAg dépend donc de la conviction selon laquelle, bien qu’étant « ni des personnes physiques ni des personnes morales », les robots- conseillers – ou plutôt leurs concepteurs – sont capables de simuler les subjectivités d’autres sujets (Supiot, 2015).

     L’IAg est un « producteur de textes à partir d’autres textes » comme tout Large Langage Model (LLM). Elle reconstitue des textes en fonction des narratifs sur les savoirs et les comportements humains collectées sur internet. Elle n’est qu’un processus de « capitalisation linguistique » (Kaplan, 2023), qui procède à « une grammatisation des comportements, grâce à une vaste collecte de données traitées par des algorithmes » … « les expériences du passé sont transformées par l’IAg en ressources marchandisables » (Giraud et Alombert, 2024). Dès lors, la modélisation de narratifs par l’IAg peut- elle intégrer toutes les spécificités du langage humain ?

La notion classique de « discours » (ou de « texte ») repose sur un signifiant, matérialisé par des mots et des phrases, et un signifié, présentant un ou plusieurs sens. Ces discours recouvrent des constructions spécifiques à chaque acteur ou groupe d’acteurs. Ils comportent à la fois des signifiants communs et des signifiants empruntés à d’autres groupes socio-professionnels.  La pratique d’un langage et la référence à des symboles, varie selon les conseillers et leurs clients.  L’usage de certaines formules révèle la présence de sujets dont les désirs sont plus ou moins idéalisés ou fantasmés, comme la « survie de la planète », le « commerce équitable », la « conformité aux règles », le « service du bien commun » … La répétition de termes génériques (de formules « nodales » selon Lacan) vise à favoriser les traductions des langages de l’Autre (plus ou moins structuré), et à importer des signifiants, comme ceux de « performance », « d’efficience », de « chaîne de valeur »…, qui sont enrichis (ou « augmentés ») par des termes, dits post-modernes, de « responsabilité », « équité  , « conformité »… Le recours à un « techno- langage », dominé par des termes anglo-saxons, permet de signifier certains concepts-clé d’un métier (comme business model ou business plan, proof of concept, data management, social reporting…). Les manifestations de fantasmes sous certaines formules paradoxales, ambiguës ou ambivalentes, comme celles « d’entreprise à mission ou à raison d’être », qui impriment une dimension ontologique à l’entreprise, de « management éthique » ou de « comptabilité verte », qui contribuent à « moraliser » des systèmes, de « performance globale », de «pilotage intégré », de « responsabilité sociétale » , qui  dévoilent une « volonté de comblement radical » d’un « manque -à- être » collectif ou individuel. Ces figures permettent de combler certains manques des acteurs de l’entreprise (Fotaki, 2009), et de faire mieux adhérer les acteurs à ses symboles (Zizek, 2006). L’absence ou quasi-absence dans les discours des répondants, de termes trahissant des tabous ou « des pratiques transgressives des managers confrontés au réel » (Fotaki 2009), comme la non- information (le non-respect de la règle du comply or explain), la désinformation (comme le greenwashing), la dénonciation (comme le whitle blowing), le « suivisme » (ou comportement mimétique) …   

L’innovation au service de la simulation

Cette enquête vient confirmer que le développement de l’IAg marque l’avènement d’une société post-moderne reposant sur la simulation ou le simulacre, telle qu’entrevue par Baudrillard (1994). Le philosophe y percevait il y a trente ans un antidote à la « société panoptique » (Foucault, 1975) ou à la « société de surveillance » (Zuboff, 2020), le virtuel se substituant au réel, l’hologramme à l’original, le signifiant au signifié… L’innovation de rupture qu’est l’IAg ne marquerait-elle pas l’avènement d’un nouveau modèle de société à la fois réel et virtuel ?

Références

Baudrillard J. (1981), Simulacres et simulation, Ed. Galilée.

Blanqué P. (2022), Dix semaines en Covid-19. Psyché, monnaie et narratifs. Une interprétation de la crise, Ed. Economica

Blanqué P. (2024), Les aventures de l ‘inflation.  Changement de régime. Ed. Calmann Levy.

Bonnet D., Pluchart J-J. (2021), IA et intelligence humaine, Ed. Eska – collection Turgot

Fotaki M. (2009), « Maintening the illusion of free health care in post-socialism », Journal of organizational change of management, 22(2), p.703-720.

Foucault M., Surveiller et punir, Gallimard, 1975.

Giraud G., Alombert A. (2024), Le capital que je ne suis pas. Mettre l’économie et le numérique au service de l’avenir, Fayard.

Girard R. (2002), La voix méconnue du réel, Grasset.

Lacan J. (1969), D’un Autre à l’autre, Séminaire de 1968-1969.

Kaplan F. (2023), Les vingt premières années du capitalisme linguistique : Enjeux globaux de la médiation algorithmique des langues, EPFL.

Nadeau P., Jobin K. (2024), Intelligence artificielle. Ed. Dunod, 240 pages

Supiot A. (2015), La gouvernance par les nombres, Fayard.

Zizek S. (2006), How to read Lacan, Londres, Ed. Norton.

Zuboff S. (2020), L’âge du capitalisme de surveillance, Ed. Zulma.

Share Article:

Leave a Reply

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Club Turgot

En 2023, le Club Turgot a lu 195 ouvrages en langue française publiés dans l’année et a
rédigé 97 chroniques qui ont été publiées dans une dizaine de revues et sur 4 sites internet.
Il s’est efforcé de couvrir les principales problématiques soulevées en 2023 et de remarquer
des auteurs aux profils différents.

Recent Posts

  • All Post
  • Chronique
  • Grand prix Turgot
  • Hommage
  • Prix spéciaux
  • Publication 2024
    •   Back
    • P Artus
    • J Mistral
    • M. AGLIETTA
    • J; DE LAROSIERE
    • D Cohen
    • C. SAINT-ÉTIENNE
    • P; BLANQUE
    • J-M DANIEL
    • C. de BOISSIEU
    • F. BOURNOIS
    • JP BETBEZE
    • V. LEVY
    • J. TIROLE
    • R. BOYER
    • N. BAVEREZ
    • H. BOURGUINAT
    • C. Walter
    • A. JEAN
    • G. PITRON
    • A. BURLAUD
    • J. Attali
    •   Back
    • monnaie-finance
    • économie
    • management
Edit Template

© 2023 Created with Royal Elementor Addons