Quand data science rime avec bon sens

En prenant le framework du market management comme cadre pour construire cette stratégie, on se rend compte que différentes méthodes d'analyse de données s'appliquent à chaque étape du process.

La data science est présente à toutes les étapes de la construction d’une stratégie d’entreprise. En effet, l’utilisation du traitement des données par des directions fonctionelles (CEO, VP Sales, CFOs, CMOs, CDOs...) trouve sa place à chaque étape du développement de la stratégie business de l’entreprise. En prenant le framework du market management comme cadre pour construire cette stratégie, on se rend compte que différentes méthodes d’analyse de données s’appliquent à chaque étape du process

En effet que ce soient des méthodes de Secondary Research ou de Clustering pour définir et segmenter le marché à attaquer, des approches de Trade off pour identifier les market drivers et écrire la value proposition, des modèles probabilistes pour mesurer la performance d’un nouveau produit ou des modèles d’élasticité pour optimiser le prix, l’assortiment et le plan promo, chaque étape nécessite une prise de décision qui peut être supportée par l’analyse de données.  

Prenons l’exemple du secteur de la grande distribution pour illustrer l’utilisation de ces méthodologies de modélisation des données pour aider à la prise de décision à chacune de ces étapes.

 UNE APPROCHE PROBABILISTE POUR ÉVALUER LES PERFORMANCES D’UN NOUVEAU PRODUIT

 Afin de pouvoir évaluer les performances d’un nouveau produit qui n’a pas encore été introduit sur le marché, il est nécessaire dans un premier temps de montrer à un panel de consommateur ce nouveau produit au milieu de produits concurrents et de noter le classement de préférences du nouveau produit versus les produits concurrents.

Ce classement nous donne une idée du ranking des parts de marché du nouveau produit dans son univers de concurrence. Cependant, en montrant le nouveau produit, nous faisons l’hypothèse que ce nouveau produit a 100% de notoriété ce qui n’est absolument pas la réalité lors de l’introduction d’un nouveau produit. 

Généralement, une campagne de lancement de nouveau produit s’accompagne d’une action de publicité dont la pression est mesurée par ce qu’on appelle les GRPs (Gross Rating Points) c’est-à-dire le pourcentage de la cible visée ayant vu la publicité. Par exemple, 300 GRPs correspond à toucher en moyenne 3 fois 100% de sa cible.

En utilisant la loi binomiale négative comme loi de distribution du nombre de contacts avec la publicité, on obtient le pourcentage de population ayant eu au moins « n » contacts avec la publicité. Si on fait l’hypothèse qu’avec 5 contacts et plus on connait le produit, on a alors la notoriété du produit. On peut ainsi intégrer cette montée en notoriété au ranking de part de marché et ainsi estimer la montée en part de marché du nouveau produit.

UNE APPROCHE PROBABILISTE POUR ÉVITER LES RUPTURES DE STOCK

 Il existe une autre approche probabiliste qui permet de répondre à un cas d’usage très important dans le domaine du retail que ce soient pour les distributeurs ou les fabricants : comment éviter les ruptures de produits en surface de vente ou en entrepôt. Ce problème peut être à l’origine d’une perte de chiffre d’affaires importante et génère une insatisfaction pour les clients. Ce point est particulièrement compliqué à appréhender avec une approche data pour les produits qui se vendent structurellement très peu (comme par exemple, la bouteille de Chivas 30 ans d’âge).

 Une solution peut être de calculer les ventes moyennes du produit par semaine et par point de vente et de distribuer cette valeur moyenne par point de vente selon une loi de Poisson qui est bien adaptée pour des produits qui « tournent » peu. A partir de cette distribution on peut calculer la probabilité que le produit soit en rupture et essayer de définir un plan d’action pour que cette probabilité diminue.

 LES MODÈLES D’ÉLASTICITÉ POUR ÉVALUER L’IMPACT DU MARKETING MIX

 Les modèles d’élasticité sont eux pertinents pour évaluer l’impact du marketing mix (prix, promotion, assortiment...). En effet, pour rester dans le secteur du retail, les chiffres de ventes des produits de grande consommation montrent une variabilité importante d’un magasin à un autre ou d’une semaine à l’autre. Cette variabilité dans les données, élément fondamental pour les modèles d’élasticité, permet d’expliquer les ventes par un ensemble de facteurs impactants (prix, taille du magasin, référencement).

 Concernant le prix, l’élasticité permet de dire de combien les ventes augmenteraient si le prix baissait de 10% par exemple. Parfois cette relation continue entre le prix et les ventes n’est pas significative car il existe des phénomènes de seuil de prix au-delà duquel les ventes chutent de manière brutale. Il est clé de considérer les deux approches élasticité/effet de seuil.

 Pour revenir sur cette notion de variabilité dans les données, cet élément qui est critique pour construire des modèles d’élasticité, est beaucoup plus difficile à avoir dans le cadre du commerce en ligne. En effet, alors que comme vu précédemment, le commerce physique génère des disparités entre les magasins et entre les semaines (référencement, prix et promotions différentes selon les magasins ou les semaines), le commerce en ligne ne génère pas la même variabilité. En effet, tous les produits sont par construction disponibles sur un site marchand.

 Plus généralement, de plus en plus de données sont créées chaque jour (principalement non structurées) et il est très important de profiter de la variabilité de toutes ces données plutôt que de vouloir les additionner et donc de perdre en variance. J’aime bien l’analogie avec l’eau : un lac est une étendue d’eau immobile qui est un bel endroit agréable pour se baigner mais à partir duquel on ne produit rien alors que les torrents de montagne qui coulent dans des dénivelés importants permettent de créer de l’électricité et générer de la valeur.

 L’analyse des données est devenue essentielle dans le développement des stratégies d’entreprises. Ces dernières années, elle s’est fait une place dans nos vies de citoyens au travers de services du quotidien et des technologies d’IA et d’IOT. Il est donc de plus en plus critique de comprendre ce que la donnée sait et ne sait pas faire, afin de rendre plus précise l’expertise que nous pouvons apporter en tant qu’humain pour complémenter la data.