Catégories
Experts

Quelle éthique de l’IA ?

Philippe Guilbert

Consultant en méthodologies d’études et membre des comités ESOMAR Professional Standards Committee et Associations Executive Committee, il a été pendant plus de 10 ans le DG de TOLUNA France, ainsi que DGA ou directeur scientifique de plusieurs grands instituts d’études.


L’éthique de l’intelligence artificielle est devenue en quelques années un sujet de société majeur. Amazon, Facebook, Google, DeepMind, Microsoft et IBM lancent en 2016 le « Partnership on AI », une coalition d’entreprises, chercheurs et experts visant à définir une IA responsable. En 2017, la conférence « Beneficial AI » à Asilomar établit 23 principes pour encadrer le développement de l’IA. La Commission européenne réunit 52 experts en 2018 dans le « High Level Group on Artificial Intelligence » qui publie l’année suivante 7 principes. L’OCDE fournit également en 2019 10 recommandations sur l’IA… A cette période aussi, de nombreux acteurs de l’IA créent leurs comités éthiques internes, engendrant une multiplicité d’approches, recommandations et règles plus ou moins suivies dans le développement ou l’utilisation des algorithmes.

Le printemps 2021 marque un tournant vers un encadrement plus strict dans plusieurs régions du monde. Le 19 avril, l’autorité américaine de la concurrence (Federal Trade Commission) rappelle l’existence de lois interdisant la vente ou l’utilisation d’algorithmes biaisés à préjugés racistes ou générant d’autres discriminations (genre, religion, âge…) en matière d’accès à l’emploi, au logement, au crédit, à l’assurance, aux aides publiques…

Deux jours après, le 21 avril, la Commission européenne publie un premier projet de régulation de l’IA visant à établir des règles harmonisées sur des bases éthiques respectueuses de la Charte des droits fondamentaux de l’Union européenne (dignité, liberté, égalité, solidarité, citoyenneté et justice). En cas d’adoption, il ne s’agira plus de recommandations laissées au bon vouloir des entreprises mais bien d’une réglementation imposant notamment l’évaluation des risques. Le projet établit une liste de pratiques à interdire en raison d’un risque inacceptable pour les valeurs de l’UE (techniques subliminales de manipulation, scoring social…), et des systèmes d’IA à haut risque (santé, sécurité, transports, emploi…) autorisés mais soumis à de strictes obligations de gestion des risques, documentation, transparence, contrôle humain, tests et conformité notamment. En cas de risque faible ou minime, la transparence peut être suffisante.

Comme pour le RGPD, le projet européen vise les citoyens de l’UE et s’appliquera donc à toutes les entreprises quelle que soit leur implantation en Europe ou ailleurs, dès lors que leur activité touchera des citoyens de l’UE. Cette réglementation concernera aussi les fournisseurs et les utilisateurs : une société ayant recours aux algorithmes pour gérer son recrutement ou son personnel sera concernée même sans les avoir développés. L’essor d’outils No-Code (sans programmation) devrait également diversifier les profils des entreprises soumises à cette réglementation.

Autorégulation vs Réglementation

En moins de cinq années, l’autorégulation fondée sur des principes éthiques librement choisis par les organisations a montré plusieurs limites. La reconnaissance faciale, les décisions automatisées, les biais de discrimination, le rôle des algorithmes dans la gestion des contenus des réseaux sociaux et la conduite automatisée suscitent en particulier de nombreuses inquiétudes. Celles-ci poussent des autorités à lancer des rappels à la loi en indiquant celles qui s’appliquent aussi à l’IA, tandis que d’autres autorités envisagent des réglementations spécifiques. Mais concevoir une nouvelle réglementation dans un domaine technologique est rarement simple. Se baser sur les technologies et les utilisations d’aujourd’hui induit un fort risque d’obsolescence : la loi peut arriver trop tardivement pour sanctionner des pratiques néfastes, et être contournable par de nouvelles méthodes ou techniques. Qui plus est, aucune région ne veut rater la révolution de l’IA en bloquant l’innovation de ses entreprises. 

Le projet européen ne cherche pas à recenser pas les toutes technologies et utilisations actuelles pour les interdire ou autoriser en fonction de l’état des connaissances. S’il interdit des pratiques incompatibles avec les valeurs de l’UE, la liste des systèmes d’IA à haut risque peut être étendue en fonction de l’évolution des techniques et usages. Le projet prévoit aussi un rôle déterminant et préventif des acteurs de l’IA via la gestion des risques au sein des organisations, et leur anticipation à travers les bons comportements décrits dans les codes de conduite professionnels. Il s’agit plutôt d’une corégulation qui s’appuie sur les connaissances des professionnels, mieux informés des dernières innovations et applications métiers, pour les mises en œuvre sectorielles. Son impact sera donc très variable en fonction des niveaux de risques d’IA par activité, et de l’existence de standards professionnels récents et détaillés.

Le cas des études marketing

Les études de marché et sondages d’opinion utilisent de plus en plus d’IA pour la collecte, analyse et restitution des données. Cela concerne bien sûr la data déjà existante sur le web, les réseaux sociaux et les technologies Mobile et IoT (données secondaires), mais aussi les enquêtes classiques (source de données primaires) avec les algorithmes d’échantillonnage, de codification (texte, image, son) et de traitement des données. Les professionnels des études sont donc pleinement concernés par ce projet réglementaire.

Le code international ICC/Esomar, mis à jour en 2016 pour renforcer la protection des données, a instauré trois principes fondamentaux : transparence auprès des personnes concernées par la recherche ; protection des données personnelles ; et obligation de se comporter de manière éthique, en conformité à toutes les lois et réglementations applicables, sans causer de préjudice aux personnes concernées ou à la réputation du métier. L’application de ces principes fondamentaux est détaillée dans une série de guides spécifiques. L’absence de préjudice (physique, financier, immatériel ou moral) est précisée dans le guide Esomar/GRBN « Duty of Care » publié en septembre 2021. Les spécificités par type d’enquête sont détaillées dans le guide « Primary Data » sorti à la même date, notamment pour les obligations de transparence vis-à-vis des participants aux enquêtes, des clients et du grand public en cas de publication des résultats. Les professionnels doivent prendre ces précautions avec ou sans IA dans leur process. Ils préviennent ainsi les participants en cas d’utilisation d’un chatbot en interview, ou lorsqu’un test de vidéo a recours à la reconnaissance des émotions : le projet de règlement européen ne devrait pas bouleverser les pratiques dans ce domaine.

Le guide « Secondary Data » sur l’utilisation des données déjà existantes est en cours de finalisation. Il soulignera la nécessaire transparence sur les analytics et le machine learning, notamment à propos des limites possibles dans les données, les méthodes et les procédures de validation employées. Ce document sera mis en ligne pour une large consultation ouverte à tous les professionnels, clients et utilisateurs des études : il est probable que l’IA et le projet de réglementation européen susciteront de nombreux retours !

Bien sûr, le projet de réglementation IA pourra être modifié par le Parlement européen et les Etats membres. La CNIL et ses homologues européens ont fourni un avis pour élargir le champ des systèmes d’IA interdits, et restreindre les systèmes biométriques (dont la reconnaissance faciale) aux fins de classement des individus par ethnie, sexe, orientation politique… D’un autre côté, les craintes sur l’alourdissement des contraintes pour les entreprises devraient ressurgir comme lors du lancement du RGPD. Les prochaines années seront marquées par d’intenses discussions politiques, juridiques, économiques et techniques ! Si l’obligation d’évaluation et de gestion des risques est préservée, cela constituera cependant une grande avancée pour contrôler que les principes éthiques sont appliqués et éviter le « Ethics washing ». L’éthique ne doit pas se limiter à énoncer des principes !

Pour en savoir plus :