Catégories
Experts

L’intelligence artificielle (IA) au service des études et analyses marketing et expérience clients

Christian Langevin

Directeur Général – QWAM Content Intelligence


Après la phase initiale mélangeant espoirs exagérés, désillusions, et parfois incompréhensions et fantasmes, l’intelligence artificielle et ses cas d’usage en entreprise commencent à se déployer dans quasiment tous les secteurs d’activités et contextes métiers.

Le domaine des études marketing et de la connaissance clients n’échappe pas à ce mouvement de fond. Au centre de ce sujet se trouve les verbatim, au sens le plus large du terme – à savoir les réponses à des questions ouvertes bien sûr, mais aussi l’expression spontanée des répondants dans le cadre d’enquêtes … ou non.

Car c’est au travers de ces verbatim que l’on peut accéder à de nombreux et riches indicateurs tels que les irritants ou les

problèmes rencontrés, identifier les points de satisfaction dans l’expérience clients, prendre connaissance des suggestions d’amélioration, identifier des signaux faibles, aller dans le détail de la perception des produits ou services, …, tout cela au service d’une meilleure satisfaction des clients, consommateurs ou utilisateurs.

Si les verbatim ont toujours fait partie des études, cela restait en général dans de très faibles proportions car les méthodes de dépouillement traditionnelles ne permettaient pas de prendre en compte des volumes importants – ne serait-ce qu’en raison des coûts de recodification ; sans oublier le risque, souvent négligé et pourtant bien existant, de la subjectivité du recodificateur lui-même.

L’IA et les solutions sémantiques pour l’analyse de données textuelles (aussi dénommé traitement du langage naturel ou NLP – Natural Language Processing) permettent de faire évoluer la pratique des études dans deux directions majeures que nous allons expliciter plus loin. Mais tout d’abord, il est important de comprendre les principes de l’analyse de données textuelles via l’IA et la sémantique, analyse qui se déroule toujours en deux phases :

  • Une phase de construction (« build ») où avec un jeu de données d’un certain volume, on construit un modèle IA/sémantique et une grille d’analyse (« plan de code ») correspondante pour préparer les livrables de l’étude ; cette phase nécessite un travail collaboratif et itératif entre les équipes de data scientists et les analystes, ou experts métier afin de valider le modèle et de s’assurer de la cohérence des résultats; cette phase a un certain coût car il faut compter de l’ordre de quelques jours étalés sur deux à quatre semaines pour bâtir le modèle adapté au contexte ; ce temps peut être raccourci voire très faible quand les contextes des études sont très proches dans leurs thématiques
  • Une phase d’exploitation des algorithmes (« run »), ou il suffit de charger les données, de faire éventuellement quelques ajustements à la marge pour obtenir les résultats immédiatement disponibles ; cette phase est très courte puisque le modèle existe et que la phase de calcul est très rapide (quelques minutes à quelques heures suivant les volumes) : on voit tout de suite que le volume n’a plus d’impact significatif sur le coût.

L’IA et les technologies sémantiques sont donc matures pour une utilisation à grande échelle dans le secteur des études. En effet des solutions intégrant les différentes approches (linguistiques, règles et dictionnaires, machine learning, deep learning, transformers, word embeddings, multi-linguisme, etc.) sont opérationnelles et ont fait leurs preuves lors de nombreuses études.

On peut en déduire immédiatement les deux directions dans lesquelles les études et analyses vont pouvoir évoluer :

  • Avec les méthodes de type IA, il devient possible de multiplier les questions ouvertes et les expressions spontanées, celles-ci pourront donc être analysées quel que soit le volume ; ceci permet d’augmenter largement la couverture et donc la qualité des études, des analyses et « insights » qui en sont tirés ; en effet il est généralement convenu que les questions fermées enferment les répondants et réduisent le périmètre de l’étude et donc des enseignements qui peuvent en être tirés
  • une plus grande récurrence des enquêtes et études devient possible car le volume de verbatim générés a un impact limité sur les coûts d’analyse, permettant de mettre en place des observatoires permanents des avis et verbatim clients ou des observatoires RH par exemple.

Toutefois, il ne s’agit là que de « l’amélioration de l’existant » – certes déjà très appréciable, mais l’analyse de données textuelles via l’IA et la sémantique ouvre la voie à de nouvelles approches méthodologiques.

Traditionnellement s’opposent :

  • Les approches qualitatives, qui expliquent, diagnostiquent des causalités, et permettent aussi de préciser les items qui ensuite feront l’objet d’une quantification : grosso modo, s’oppose un quali autosuffisant à un quali pré-quanti.
  • Les approches quantitatives, fondées sur les statistiques, où le quali – via les questions ouvertes – ne trouve pas vraiment sa place : les rigoristes diront que ces dernières ne sont qu’un pis-aller pour ceux qui n’ont pas bien préparé le travail en amont.

Le Web a fortement rebattu les cartes :

  • D’une part en élargissant les modes de recueil qualitatifs avec l’arrivée des bulletin boards, forums, communautés en ligne, éphémères ou non, etc.
  • D’autre part, en fournissant, au travers de l’expression spontanée des internautes sur les médias sociaux, un matériau totalement nouveau et inattendu.

Par ailleurs, la complexité du monde actuel, les évolutions sociétales récentes, les bouleversements liés à la digitalisation à marche forcée, l’ultra fragmentation des populations, etc. accentuent les limites des approches quantitatives : trop souvent les répondants se trouvent placés face à des choix bloquants, ne saisissent pas le sens réel des questionnements, voire se trouvent conduits à des interprétations erronées.

Prenez par exemple ces questionnaires souvent envoyés de manière systématique après un contact avec le SAV de certains distributeurs, assureurs et autres FAI : comment y répondre quand on n’est pas satisfait des procédures et solutions mises en place par la marque sans pour autant vouloir nuire au malheureux technicien avec qui on a échangé ?

Car bien souvent, clients et consommateurs aimeraient pouvoir nuancer leurs propos, préciser certains détails … voire carrément en développer d’autres, non évoqués, mais qu’ils jugent pertinents : impossible dans le cadre des méthodologies actuelles.

C’est pourquoi, grâce à l’IA et la sémantique, peuvent se développer des approches hybrides – qui pourraient se dénommer qualitatif lourd, quantitatif ouvert … peu importe ! – et qui permettraient à des citoyens, consommateurs ou utilisateurs en très grand nombre de s’exprimer sans contrainte – mais dans le cadre de thématiques précises, bien entendu.

Des approches permettant de quantifier des insights, des motivations, des opinions de manière nettement plus fine que la succession quali/quanti habituelle.

Pour résumer, l’utilisation de l’IA dans les études permet d’aller plus loin dans l’analyse car le champ d’investigation induit par la multiplication des questions ouvertes et de l’expression spontanée permet d’avoir un périmètre d’étude plus vaste et sans doute plus fin, contribuant ainsi à une meilleure connaissance client, consommateurs ou utilisateurs.