Catégories
Experts

Pourquoi le big data transforme les études sur le consommateur ?

Olivier Mamavi est docteur en sciences de gestion.

Il est professeur associé en Data Management à Paris School of Business. Il est également Directeur des données de la plateforme d’innovation ouverte Management & Datascience. Ses travaux de recherche portent sur la prise de décision et la gestion des données.


Les données sont partout ! Elles proviennent du web, des médias sociaux, des objets connectés et de nombreuses applications. Le big data se caractérise par la quantité des données créées (volume), le flux de traitement en temps réel (vitesse), la diversité des sources (variété), la fiabilité (véracité) et le degré d’opérationnalité (valeur).

Plusieurs facteurs expliquent cette explosion des données massives. Tout d’abord, la diminution constante du coût de stockage. Nous sommes passés de quelques centaines de milliers de dollars pour un gigabyte en 1980 à quelques centimes aujourd’hui. Ensuite, le développement des réseaux à très haut débit (THD) et l’avènement du cloud computing ont permis, à tous, d’avoir accès à des applications à distance. Enfin, l’augmentation de la puissance de calcul, grâce notamment aux systèmes distribués, permet une analyse de données à grande échelle.

La combinaison de ces 3 facteurs oblige donc les entreprises à redéfinir les technologies de capture, de stockage, d’analyse et de visualisation des données. Les perspectives et opportunités liées au traitement du big data semblent sans limite et en particulier pour les études sur le consommateur.

Nouveau paradigme

En fait, le big data crée un profond changement de paradigme. L’explosion des données massives rend accessible l’analyse exhaustive d’une population d’individus sans passer par une étape d’échantillonnage. L’observation d’une population entière devient possible et évite tous les biais liés aux techniques de sondages.

Il n’y a plus besoin d’autant de ressources pour organiser la phase de collecte. On peut se focaliser directement sur le traitement et la valorisation des données stockées. Seules les étapes de préparation, qui précèdent l’analyse, deviennent fondamentales. Elles permettent la transformation des variables dans un format facilitant l’analyse et impactant la qualité des résultats.

Il arrive que le nombre d’informations disponibles (par exemple les variables caractérisant un individu ou son comportement) devienne largement plus grand que la taille de la population observée (nombre d’individus étudiés).

Ce phénomène oblige à adapter les techniques statistiques et à utiliser de méthodes mathématiques pour minimiser les erreurs de prévisions. On assiste au rôle de plus en plus accru de l’intelligence artificielle et en particulier de l’usage d’outils d’apprentissage automatique (machine learning) ou d’apprentissage profond (deep learning).

Transformer la donnée en connaissance

La gestion des données massives (data management) est un processus qui comprend plusieurs étapes :

  • La collecte permet d’intégrer des données de sources hétérogènes puis de les stocker,
  • La préparation consiste à nettoyer et à normaliser les données,
  • L’analyse des données a comme objectif de trouver des modèles pour comprendre, expliquer ou prédire un phénomène,
  • L’exploitation des résultats facilite la prise de décision grâce à une bonne visualisation de la donnée.

Chacune de ces étapes fait appel à une expertise spécifique : l’informatique pour la collecte et la préparation des données (Data Engeneer) ; la mathématique pour l’analyse (Data Scientist) ; les compétences métiers pour l’interprétation des résultats et les applications (Data Analyst).

La capacité à gérer en temps réel des données massives, hétérogènes et déstructurées à fait émerger une nouvelle discipline : la data science (Riché et al., 2017). La data science consiste à collecter, stocker, visualiser, croiser, analyser et valoriser des informations pour prendre des décisions piloter par la donnée (data driven decision). En fait, il s’agit de produire de l’intelligence ; c’est-à-dire des connaissances utiles pour agir à partir de données brutes.

Comprendre le consommateur

Dans un environnement de plus en plus complexe, disposer d’indicateurs fiables et pertinents devient nécessaire (Mamavi et Morin, 2014). Un indicateur est une variable observable utilisée pour rendre compte d’une réalité non observable (Boulanger (2004). Il permet la traduction de concepts théoriques sous la forme de variables mesurables. Ces indicateurs peuvent, ensuite, être manipulés pour expliquer ou prédire des phénomènes, ou alors agrégés avec d’autres indicateurs pour former des indices qui permettent de suivre des tendances.

Mais comme le souligne Kaplan et Norton (2005), un indicateur est, d’abord, la composante importante des tableaux de bord nécessaire pour faire du contrôle de gestion. En marketing, les indicateurs vont être utilisés pour comprendre le consommateur, ajuster les objectifs en fonction de buts précis, réduire l’asymétrie d’information entre partie prenante ou pour influencer le comportement. C’est le cas, par exemple, des indicateurs de satisfaction qui évaluent les écarts avec une norme ou qui permettent de détecter des points de dysfonctionnement.

La bonne compréhension du consommateur passe donc par la capacité à mesurer ses attentes ou ses besoins. La construction d’indicateurs devient primordiale et repose sur un processus de différentes étapes. Tout d’abord, il s’agit d’identifier les dimensions qui constituent le concept que l’on veut appréhender. Ensuite, il faut décomposer ses dimensions en variables. Enfin, ces variables doivent faciliter l’opérationnalisation du concept à travers les indicateurs.

L’utilité d’utiliser des indicateurs dans les études sur le consommateur est donc double. D’une part, c’est un moyen efficace de synthétiser une grande masse d’information pour en appréhender son évolution. D’autre part, c’est un outil de contrôle de gestion et de performance.

Vers des indicateurs haute fréquence

Voilà pourquoi le big data transforme les études sur les consommateurs. La pandémie du Covid-19 qui s’est répandue sur la planète en est une illustration intéressante. En effet, comment peut-on mesurer les sentiments et les opinions des consommateurs durant cette période ? Quel est l’impact de la crise sur le comportement du consommateur ?

Une des solutions consiste à repenser les dispositifs de métrologie au service du consommateur. Par exemple, des chercheurs en sciences sociales ont développé un baromètre du confinement à partir du média social Tweeter (Monnot & Benavent, 2020). Sur la base de plusieurs millions de tweets récoltés pendant plusieurs mois, ils sont capables de capter les variations des émotions de la population au fil des jours, des évènements et de l’actualité. L’objectif est de fournir un indicateur de mesure à haute fréquence (minute par minute) qui permet de prédire les sentiments, l’opinion, les attentes et les besoins des consommateurs.

Références :

  • Boulanger, P. M. (2004). Les indicateurs de développement durable: un défi scientifique, un enjeu démocratique. Les séminaires de l’Iddri,  vol.12.
  • Kaplan, R. S., & Norton, D. P. (2005). The balanced scorecard: measures that drive performance. Harvard business review, 83(7), 172.
  • Mamavi, O., & Morin, S. (2014). Quelle intelligence peut-on trouver dans les « données massives»? Le cas des marchés publics français. Revue internationale d’intelligence économique, 6(2), 131-142.
  • Monnot, J., & Benavent, C. (2020). #confinement : Le masque au centre des conversations, jour à jour. Management et Datascience, 4(4).
  • Riché, C., Mamavi, O., & Zerbib, R. (2017). Management & data science : contours d’une discipline émergente en sciences de gestion. Management et Datascience, 1(1).