L’IA générative est-elle une destruction créatrice ?

Les utilisateurs de l’IAg appréhendent ses « boites noires » mais aussi ses « cygnes noirs ». Les premières recouvrent les biais d’algorithmes de plus en plus « apprenants » donc opaques. Les seconds rendent imprévisible la date à laquelle les androïdes remplaceront complètement les humains (Pluchart, 2024). Cette nouvelle génération de chatbots est en mesure de bouleverser les pratiques de nombreux métiers (Stiegler, 2015), notamment dans la recherche (avec les nouveaux moteurs de recherche et algorithmes de calcul), l’enseignement (avec de nouvelles applications pédagogiques), le contrôle et le fisc (avec les applications de détection de fraude), le journalisme (avec les logiciels de rédaction et de traduction), le commerce en ligne et le conseil bancaire (avec les profileurs, les calculateurs et les agents conversationnels)… Bien que les derniers rapports de la Banque Centrale Européenne et de l’Organisation Internationale du Travail  soient de nature à les rassurer, car ils ne prédisent pas de suppressions nettes d’emplois significatives, les utilisateurs s’inquiètent toutefois de l’ampleur des reconversions professionnelles à engager.

Une  étude du groupe SII (entreprise de services du numérique et de conseils) menée en 2023 avec l’institut de sondage Viavoice, révèle une adoption encore limitée de l’IAg en France. Son application n’en suscite pas moins la crainte que ses applications ne se substituent progressivement aux créations humaines restituées dans des livres, manuels, rapports, articles discours, exercices…, mais aussi dans les relations commerciales et la communication courante entre producteurs et consommateurs. Plusieurs expériences menées par Valluy (2024)montrent que les logiciels actuels de détection des plagiats (comme Compilatio)  ou des textes ex nihilo générés par ChatGPT 4  (ou ses équivalents comme LLama , Claude 1&2, mistral 7b, Esnie Bot 4…) sont désormais inopérants. Cette détection ne reposerait donc plus que sur des indices observés par l’expérience et la sagacité humaines : l’uniformité du texte, un raisonnement trop orienté, l’illogisme ou la maladresse de certaines formules, les métadonnées improbables du document… Après avoir présenté des cas d’usage de l’IAg dans plusieurs secteurs d’activité (arts et divertissements ; conception et fabrication, sciences de la vie, industries et énergie, marketing, gestion d’entreprise, traduction et rédaction de documents, recherche académique, éducation, technologie de l’information, finance…), Nadeau et Jobin (2024) se demandent comment son application peut concilier économie et éthique.

L’IAg est désormais considérée comme étant le principal facteur de changement des entreprises et des administrations, car elle modifie en profondeur la synergie entre la main-d’œuvre et la machine (Stiegler, 2015). Il est devenu impératif pour ces organisations de renforcer leurs compétences et leurs processus. C’est pourquoi elles adoptent de plus en plus des « guides de bonnes pratiques » en matière d’IA, afin de bénéficier pour les entreprises d’un avantage concurrentiel, et pour les administrations d’un meilleur service aux usagers.  Les clients et les citoyens exigent désormais que les solutions mises en œuvre soient à la fois transparentes, responsables et éthiques. L’adoption anticipée de ces pratiques responsables les protège contre les risques d’improductivité, de perte de la confiance de leurs parties prenantes et d’insécurité technologique et juridique (Jean, 2022). Les entreprises et les administrations doivent faire preuve de sens éthique à la fois dans leurs pratiques courantes, dans le traçage et l’utilisation de leurs données, dans le choix de leurs algorithmes et de leurs processus de prise de   décision. Elles doivent enrichir leurs compétences en IA, développer une culture de la responsabilité, donner la priorité à la confidentialité et à la sécurité afin de garantir que les applications d’IA protègent les données des utilisateurs, grâce à des audits réguliers et indépendants de leurs systèmes, ainsi qu’à la correction systématique des biais algorithmiques. Elles doivent désigner des référents chargés de piloter les projets d’IA, de digitaliser les opérations et d’assister leurs acteurs, de développer des pôles d’expertise internes et d’encadrer les interventions des cabinets externes d’ingénierie (Stiegler, 2015).

pour aller plus loin

Jean A. (2022), Les algorithmes font ils la loi ?, L’Observatoire, 221 pages.

Nadeau P., Jobin K. (2024), Intelligence artificielle. Eds Dunod, 240 pages

Pluchart J-J. (2024), 60 ans d’agents conversationnels d’Eliza à chat GPT, blog Clubturgot.com.

Stiegler B. (2015), La société automatique, tome I, L’avenir du travail, Fayard.

Valluy J. (2023), Humanité et numérique(s) – De l’histoire de l’informatique en expansion sociétale… au capitalisme de surveillance et d’influence (1890-2023), Terra-HN-éditions, Collection HNP,: http://www.reseau-terra.eu/article1347.

Jean-Jacques Pluchart

Share Article:

Leave a Reply

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Club Turgot

En 2023, le Club Turgot a lu 195 ouvrages en langue française publiés dans l’année et a
rédigé 97 chroniques qui ont été publiées dans une dizaine de revues et sur 4 sites internet.
Il s’est efforcé de couvrir les principales problématiques soulevées en 2023 et de remarquer
des auteurs aux profils différents.

Recent Posts

  • All Post
  • Chronique
  • Grand prix Turgot
  • Hommage
  • Prix spéciaux
  • Publication 2024
    •   Back
    • P Artus
    • J Mistral
    • M. AGLIETTA
    • J; DE LAROSIERE
    • D Cohen
    • C. SAINT-ÉTIENNE
    • P; BLANQUE
    • J-M DANIEL
    • C. de BOISSIEU
    • F. BOURNOIS
    • JP BETBEZE
    • V. LEVY
    • J. TIROLE
    • R. BOYER
    •   Back
    • monnaie-finance
    • économie
    • management
Edit Template

© 2023 Created with Royal Elementor Addons