Jean-Jacques Pluchart
Les concepteurs privés et les régulateurs publics de l’IA multiplient depuis une dizaine d’années, les règlements, les codes, les guides et les chartes d’éthique, dont les principes, les objectifs et les modalités sont soumis à de multiples contingences. Dans l’ensemble, selon Menecoeur (2020), les 126 documents sur l’éthique de l’IA recensés au niveau mondial, se partagent entre des codes publics (nationaux et internationaux) et des guides privés (d’entreprises, d’universités et d’associations). Les organisations internationales comme l’OCDE, l’ONU, l’UNESCO et le G7 se sont efforcées depuis 2019 d’instaurer une « étique normative » et « une gouvernance mondiale de l’IA ». Le Vatican, inspiré par les travaux de Bonanti (2018), inspirateurs de plusieurs codes, prône l’avènement d’une « algoréthique », fondée sur les principes « de transparence, d’inclusion sociale, de responsabilité, d’impartialité et de fiabilité ». Mais les gouvernants des États – Unis, de la Chine populaire et de l’Union européenne, ainsi que les dirigeants de leurs entreprises numériques, ont appliqué des règles, des codes, des guides et des chartes d’éthique qui répondent à des approches souvent différentes.
Les codes américains
La régulation de l’IA aux Etats- Unis est assurée par l’Etat fédéral et par les 50 Etats de l’Union. Le premier privilégie les cadres volontaires et gère surtout les impacts de l’IA sur la défense nationale et la sécurité des personnes et des biens, tandis que les seconds se réservent la santé, l’éducation et la justice. En 2022, la présidence fédérale a publié le « Plan directeur pour une charte des droits de l’IA », qui établit cinq principes axés sur « un déploiement sûr, non discriminatoire, transparent et respectueux de la vie privée, des systèmes automatisés ». Un décret présidentiel publié en octobre 2023 et intitulé Safe, Secure, and Trustworthy Artificial Intelligence, définit des standards en matière de sûreté, de sécurité et de confiance dans l’IA. Le décret exige que des évaluations fiables et standardisées des systèmes d’IA soient mises en place afin de garantir la sécurité nationale et la fiabilité de cette technologie. Concernant l’IA générative, le Département du Commerce a fixé « des règles précises pour l’authentification des contenus et l’application d’un filigrane identifiant clairement les productions de l’IA ».
Ces directives ont suscité des critiques de la part des 50 Etats de l’Union, des grands groupes du numérique et de certaines universités et associations, qui craignent qu’elles ne freinent l’innovation ou qu’elles protègent les intérêts financiers des leaders mondiaux de l’IA représentés par les GAFAM (Google, Apple, Facebook – Meta, Amazon et Microsoft). Seuls trois Etats (le Maryland, la Californie et le Massachusetts) ont relayé les codes fédéraux, car ce sont des pôles de recherche et d’innovation en matière d’IA. L’Etat de Californie recommande ainsi une « éthique transparente et digne de confiance, mais favorable au progrès technique ». Plusieurs fondations ont dénoncé ce cadre fédéral comme favorisant « l’autorégulation des acteurs de l’IA ».
Les GAFAM ont engagé un Partnership on AI qui recommande l’application de principes généraux et un engagement collectif: « Nous nous engageons à mener des recherches ouvertes et à dialoguer sur les implications éthiques, sociales et économiques de l’IA3 » (Hern, 2016), mais l’interprétation de ces principes diffère selon les groupes. Google s’engage à « offrir une expérience événementielle sans harcèlement et inclusive pour tous, indépendamment de l’identité et de l’expression de genre, de l’orientation sexuelle, du handicap, de la neuro- diversité, de l’apparence physique, de la taille du corps, de l’origine ethnique, de la nationalité, de la race, de l’âge, de la religion ou de toute autre catégorie protégée ». Apple affiche une charte fondée sur l’honnêteté – « faites preuve d’honnêteté et de normes éthiques élevées dans toutes vos transactions commerciales » -, sur le respect – « traitez vos clients, partenaires, fournisseurs, employés et autres personnes avec respect et courtoisie » – et sur la confidentialité – « protégez les informations confidentielles d’Apple et celles des clients, partenaires, fournisseurs et employés ». Meta considère « les normes éthiques comme faisant partie intégrante du processus de recherche et de l’infrastructure de la pratique professionnelle et de la recherche ». Sa charte repose sur « un engagement envers des normes de conduite professionnelle et un sens commun des responsabilités ». Amazon reprend les droits fondamentaux dans sa charte d’éthique, mais déclare paradoxalement que « l’IA pilote l’humain ». Microsoft affiche un « Code de confiance reflétant sa culture et ses valeurs, ainsi que les principes qui guident son comportement » … « Ses employés utilisent ces normes pour comprendre ce qui leur est demandé, obtenir de l’aide en cas de besoin et prendre de bonnes décisions qui renforcent la confiance et permettent à ses clients et partenaires d’accomplir davantage ». Son partenaire Open AI reconnaît « le potentiel de partialité des algorithmes et s’efforce d’en atténuer l’impact ». Le créateur de chatGPT investit dans la recherche pour développer des « algorithmes justes et impartiaux, qui s’attaquent aux disparités dans les données qui pourraient conduire à des résultats discriminatoires ».
Les codes chinois
L’objectif affiché par la Chine populaire est « d’intégrer des principes éthiques aux différents maillons de la chaîne de l’IA » (Beijing AI principles, 2019). Ces principes s’inscrivent dans le plan Belt and Road de développement des activités internationales de la Chine. Dans son 14e plan quinquennal, le gouvernement chinois fixe six principes éthiques devant être respectés par les acteurs de l’économie numérique : « l’amélioration du bien être humain, la promotion de l’équité et de la justice, la protection de la vie privée et de la sécurité, la garantie d’une crédibilité contrôlable, le renforcement des responsabilités, l’amélioration de la littératie éthique ».
Ces principes sont applicables par tous les acteurs chinois et étrangers de l’IA. Ils ont été déclinés dans tous les secteurs d’activité et ils ont été repris – au moins partiellement – par la plupart des entreprises numériques chinoises et notamment par les groupes Baidu, Tencent, Alibaba, Xiaomi (BTAX) qui sont les équivalents chinois des GAFAM américains. Baidu (moteur de recherche) a pour mission « d’approfondir, grâce à l’IA, la connaissance de la langue, de la culture et de l’environnement réglementaire chinois ». En 2018, Baidu est devenue la première entreprise chinoise à rejoindre le consortium d’éthique informatique international Partnership on AI . Tencent (concepteur de jeux vidéo) assure « construire une culture solide sur une vision et des valeurs d’intégrité, de proactivité, de coopération et de créativité ». Son code éthique (le Sunshine code proscrit la corruption et les activités frauduleuses et illégales. Afin de gagner la confiance de ses clients, Alibaba (e-commerce) garantit « l’intégrité de ses places de marché et le respect de la propriété intellectuelle et commerciale ». Xiaomi (concepteur de produits électroniques) déclare rechercher « la perfection de ses produits afin d’apporter la meilleure expérience possible à ses fans, grâce à sa foi et sa confiance dans l’innovation ».
Les codes européens
En Europe, les réflexions sur l’éthique de l’IA ont été lancées en 2015 et ont débouché sur un règlement visant la protection des données personnelles (Data Governance Act) publié en 2018 (mais appliqué en 2023), puis d’un livre blanc sur l’IA (2020), d’une directive sur les microprocesseurs (Chips Act, 2023) et d’une directive sur l’intelligence artificielle (AI Act) votée en 2024, (maisapplicable en 2026). Ces textes s’efforcent de gérer les risques induits par l’IA et de promouvoir une « IA digne de confiance ». Ils reposent sur des « droits fondamentaux », des « composantes », des « principes » et des « exigences ». Les « droits fondamentaux » sont la dignité humaine, le respect de la démocratie, la non-discrimination et les droits des citoyens. Les composantes portent sur le respect des lois (Lawful AI), sur des valeurs éthiques (ethical AI) et sur des contraintes techniques (robust AI). Les principes – empruntés à la bioéthique – portent sur l’autonomie humaine (respect des droits des citoyens), la prévention de toute atteinte (protection des hommes et des biens), l’équité (entre utilisateurs) et l’explicabilité (des logiciels). Les experts en éthique ont écarté les termes de « bienfaisance », de « non-malfaisance » et de « justice ». Ces principes ont été ensuite déclinés en « exigences » : les systèmes (données, logiciels, résultats) doivent « rester sous contrôle humain » ; ils doivent être robustes, surs et transparents » . Le respect des exigences est contrôlé par des méthodes dites « techniques »: audit des « architectures dignes de confiance » (Trustworthy AI), contrôle de l’application des normes de conception (X-by-design), des méthodes d’explication, des essais, des validations et des mises en place. Des méthodes non- techniques complètent ce dispositif : régulation par des codes, des chartes et des guides, certification des systèmes, orientation des formations à l’IA et des recherches sur l’IA. Parmi ces méthodes, l’IA Act hiérarchise les systèmes d’IA dits « fondationnels » en fonction de trois niveaux de risques sur les vies publiques et privées : les modèles qualifiés « d’inacceptables », entraînant des utilisations intrusives et discriminatoires de l’IA, sont interdits ; les systèmes qualifiés « à hauts risques », pouvant porter atteintes à la santé, à la sécurité ou aux droits fondamentaux des personnes ou de l’environnement, sont soumis à un régime strict de surveillance des biais des logiciels et de gouvernance des données (les fausses images, les contenus illicites, les images ou les textes soumis à droit d’auteur, devront notamment être signalés et corrigés) ; les « systèmes à risque modéré » devront faire l’objet de déclarations de conformité. Le règlement européen vise notamment à limiter le détournement des codes d’éthique au profit des seuls intérêts marchands (Ethic ou Blue washning). Les gouvernants européens ambitionnent de transformer « l’Union européenne en leader mondial de l’innovation en matière d’IA, tout en veillant à ce que les technologies de l’IA profitent à tous les citoyens européens ».
Ces exigences ont été partiellement reprises dans les codes nationaux des différents pays-membres, dans les chartes d’éthique des entreprises européennes du numérique et dans les nombreux rapports officiels et privés sur l’IA ethics, notamment le « rapport Villani » (2018) et le rapport IA : notre ambition pour la France (Aghion, Bouverot, 2024). Ainsi, Mistral AI, qui est un des premiers concepteurs français de l’IA générative, déclare « être indépendant, rechercher la confiance de ses clients et garantir la transparence de ses applications ». Le concepteur allemand Helm & Nagel assure « stimuler la création de valeur grâce à l’IA » et « faciliter la gestion de la conformité, de la sécurité et des coûts ». Qonto, leader européen du financement des éditeurs d’AI générative, soutient que, « comme pour toute technologie, l’IA doit se mettre au service de la stratégie globale de l’entreprise, et pas l’inverse »… déclarant qu’il est « inutile de forcer des cas d’usage s’ils n’existent pas ». Sopra Steria (un leader du conseil et des services numériques) « partage les avancées en termes de lutte contre la manipulation de l’information, de lutte informatique d’influence et de guerre informationnelle ».
Mais les textes européens, et notamment l’AI Act, ont fait l’objet d’intenses actions de lobbyng, notamment de la part des GAFAM, afin d’éviter l’AI open source et les déclassements de certains logiciels d’AI générative. C’est pourquoi la plupart des think tanks européens conseillent un renforcement de la régulation de l’IA. L’Institut Montaigne a lancé l’opération Objectif IA en faveur de la formation à l’IA. L’Observatoire de la RSE s’efforce de mettre l’IA au service de l’application des normes ESG (Environnement Social Governance). L’Institut Louis Bachelier a engagé le programme Good in Tech afin de mesurer l’impact de l’IA sur la société. Un collectif de 30 leaders mondiaux de l’IA a dénoncé l’approche européenne en septembre 2024, en déclarant que « l’Europe est devenue moins compétitive et moins innovante par rapport à d’autres régions, et elle risque maintenant de prendre encore plus de retard à l’ère de l’IA en raison de décisions réglementaires incohérentes ».
Ces réactions montrent que les codes et les guides de l’IA sont soumis à un « relativisme éthique », étant dépendants de facteurs à la fois technologiques et économiques, mais aussi géopolitiques et culturels.
Références
Aghion Ph, Bouverot A. (2024), IA : notre ambition pour la France, Odile Jacob.
Bonanti P. (2018), Homo Faber: the techno-human condition, Eds EDG.
Hern A. (28/9/2016), Partnership in IA, formed by GAFAM, The Guardian.
Menecoeur Y (2020), L’Intelligence artificielle en procès. Plaidoyer pour une réglementation internationale et européenne, EDS Bruylant.
Villani C. (2018), Donner une sens à l’Intelligence artificielle, Rapport au Président de la république française.
5 octobre 2024.
-20 novembre 2024