Aurélie Jean s’interroge sur la régulation et la réglementation de l’Intelligence Artificielle. Elle constate dans les législations américaine (le California Consumer Privacy Act) et française (le Règlement Général sur la Protection des Données), des vides et des flous juridiques qui exposent les entreprises et les particuliers à des risques de discrimination, de captation de données ou de perte de contrôle. Elle montre que les logiques des nouvelles générations d’algorithmes sont de plus en plus difficilement explicables et interprétables par les juristes et que leur encadrement nécessite l’assistance de scientifiques. Elle rappelle que « l’IA est à la fois une discipline et un outil de modélisation scientifique regroupant diverses techniques de représentation… ». L’IA permet notamment d’identifier une entité à partir d’images, d’anticiper des évolutions de phénomènes ou de détecter des fraudes.
L’auteure retrace l’historique de l’IA et analyse les diverses logiques explicites et implicites suivies par leurs concepteurs. Elle montre que l’effet « boite noire » observable dans les algorithmes implicites exploitant des données non supervisées, est inévitable et que certaines metadata non structurées exigent des tests préalables à leur traitement. Elle montre que les biais algorithmiques résultent de décisions humaines et ont donc pour origines des biais cognitifs ou des déviances comportementales. La plupart des biais sont dus à des projections statistiques de séries historiques, à des traductions erronées ou à de mauvaises formulations de problèmes Elle analyse les modèles qui ont marqué l’histoire de ces biais (manipulation de sondages par Cambridge Analytica, sélection discriminatoire d’Apple card, profilage biaisé de Google, recrutements orientés d’Amazon…).
Elle s’attache à montrer plus particulièrement les dangers de la justice prédictive (ou « algorithmisée ») qui est essentiellement basée sur le traitement de la jurisprudence. Elle redoute que les progrès de l’IA et la multiplication de ses acteurs (dont les « niveaux de langage » sont disparates) risquent d’amplifier « l’opacité algorithmique » si les politiques et les juristes n’anticipent pas certaines fonctionnalités de l’IA. C’est pourquoi elle plaide en faveur d’un développement de la « maturité algorithmique » de l’ensemble de la société.
Chronique de Jean-Jacques PLUCHART