Jean-Jacques Pluchart
L’histoire de l’IA est marquée par une tension entre deux approches, alternativement symbolique et connexionniste, comme l’observent Cardon, Cointet et Mazières (2018). Les chercheurs, à la suite de Lecun (2015), ont relancé l’IA en traitant des données massives à l’aide de modèles à « neurones profonds » (le deep learning) et en suivant une logique empruntée à la cybernétique. Cette approche qualifiée de « générative », « d’inductive » ou de « connexionniste », a été longtemps marginalisée après le lancement de l’IA symbolique en 1956 à Dartmouth par John McCarthy et Marvin Minsky, qui a été suivi par le développement des systèmes- experts avant l’émergence du machine learning au cours des années 1980.
Les modèles symboliques ont été développés par un nombre limité de chercheurs de l’heavy league, composé d’un groupe réunissant le MIT (Minsky, Papert), Carnegie Mellon (Simon, Newell) et Stanford University (McCarthy), qui a principalement répondu à des appels d’offres publics et s’est livré à des expériences plus ou moins ludiques : jeux d’échec ou de go, animation d’espaces dynamiques, simulation de décors, création de réseaux sémantiques et de nouveaux langages, génération de fonctions de vérité, robotisation de comportements , etc .
Tandis que l’IA symbolique applique un modèle à des données suivant un raisonnement hypothético-déductif, l’IA connexionniste suit une logique inductive grace à une méthode d’apprentissage permettant de réaliser des prédictions par itération de données massives. Alors que l’IA symbolique applique une théorie ou une heuristique à des données structurées afin de vérifier un résultat à un horizon donné, l’IA connexionniste produit du contenu original en « apprenant des données » grace à des questionnements adaptés. Alors que l’IA symbolique tente de résoudre un problème prédéfini, l’IA connexionniste induit des représentations signifiantes à partir des interactions entre des acteurs sociaux. La démarche de l’IA connexionniste reprend la logique de la cybernétique initiée en 1948 par Norbert Wiener. Elle est notamment attribuée au groupe de recherche Parallel Distributed Processing animé par Rumelhart et al. (1986). Les travaux du PDP explorent les mécanismes profonds de la connaissance en exploitant la métaphore des neurones (un réseau de connexions) et en supposant qu’elle se construit par un mécanisme d’activation binaire .
Pendant plus de 60 ans, cette controverse entre chercheurs sur l’IA a donné lieu à d’inombrables travaux scientifiques puisque, selon Cardon, Cointet et Mazières (2018), le corpus «symbolique » totalisait 65 522 publications entre 1956 et 2018 , tandis que le corpus «connexionniste» rassemblait 106 278 publications. Ce vaste débat ouvert entre scientifiques est exemplaire et a été notamment conceptualisé par Latour (1988).
CARDON D, COINTET J-P. et Mazières A. (2018), « La revanche des neurones. L’invention des machines inductives et la controverse de l’intelligence artificielle », Réseaux 2018/5 (n° 211).
LATOUR B. (1988) , Science in Action: How to Follow Scientists and Engineers Through Society , Harvard University Press.
LECUN Y., BENGIO Y., HINTON G. (2015), « Deep learning », Nature, vol. 521, n° 7553.
RUMELHART D. E., McCLELLAND J. L. (1986), « PDP Models and General Issues in Cognitive Science », in PDP RESEARCH GROUP (1986), Parallel Distributed Processing. Explorations in the Microstructure of Cognition, Cambridge MA, MIT Press.
WIENER N. (2014), La cybernétique : Information et régulation dans le vivant et la machine, Seuil.


