Comment concilier multiples données de SKU et pricing efficace ?

Parvenir à gérer un grand nombre de SKU (Stock Keeping Unit ou Unité de Vente Consommateur, UVC) est un des grands défis en matière de gestion des données du secteur de la distribution. La plupart des enseignes traitent en effet de 20 000 à 200 000 SKU voire plus, et de nombreuses données sont nécessaires pour calculer le prix à leur appliquer.

Les données relatives aux produits, aux prix pratiqués dans les différents points de vente ou encore à la concurrence et en considérant en plus généralement un historique de quelques mois. Pour un distributeur de taille moyenne cela représente des milliers de gigaoctets de données.

Les données relatives au SKU

De nombreuses informations sont associées à chaque SKU, telles que celles qui identifient sa marque, sa taille, son prix d’achat mais aussi ses attributs. Par exemple, à chaque modèle de pneus de voiture sont associées des informations sur leur largeur, diamètre, densité, le terrain sur lesquels elles peuvent être utilisées, et la liste des voitures avec lesquelles ils sont compatibles.

A ces données internes s’ajoutent typiquement la collecte des prix concurrents pour chaque SKU. Cela représente un volume de données d’autant plus important qu’il n’y a pas qu’un seul prix par concurrent, mais souvent autant qu’il y a de points de vente.

A cette superposition vient encore s’ajouter une autre source de complexité : la notion de chaînage, très importante dans le pricing. Elle consiste à lier le prix d’une référence aux prix d’autres produits (pour assurer par exemple la cohérence entre des produits vendus en différentes quantités sous divers emballages). Du point de vue IT, il s’agit de créer et de maintenir tous ces liens entre les différents SKUs.

Stocker ces données ne présente pas de difficultés insurmontables. Le défi pour les enseignes est surtout de parvenir à exploiter ce volume massif de données dont elles disposent et d’en tirer de la valeur.

Gérer un volume massif de données

Comment ? En commençant par intégrer ces données dans un environnement d’analyse. Si le processus de chargement des données n’a pas été optimisé, cette étape seule peut déjà prendre plusieurs heures.

 

Pour réduire les volumes de données et accélérer leur traitement, on peut choisir de les pré-agréger, mais cela pose alors des limites strictes à la précision de l’analyse. Par exemple, on ne pourra calculer un prix optimisé qu’au niveau national (prix unique) ou régional (10 ou 20 prix différents), sans prendre en compte les caractéristiques uniques de chaque magasin (coûts logistiques par exemple).  En pré-agrégeant les données, il est alors possible d’optimiser ses prix de la façon la plus fine, et donc de gagner en compétitivité.

La question du repricing
 

Le plus grand défi en matière de gestion de données de pricing est le repricing, c’est à dire la mise à jour régulière des prix pour tenir compte des évolutions du marché, des concurrents, des stocks, etc. Il ne s’agit pas de simplement mettre à jour des chiffres, mais de calculer l’impact du changement de prix sur les indicateurs-clés de l’enseigne afin de calculer le meilleur prix au meilleur moment. En pratique, cela inclut des indicateurs comme les indices prix (le niveau des prix de l’enseigne comparé à celui des concurrents), le taux de marge net et brut, ou encore le chiffre d’affaire global. Ces calculs complexes doivent être appliqués à des millions de points de données, ou des centaines de milliers si les données ont été pré-agrégées.

En fonction du nombre de données de SKU concernées, des concurrents suivis, et du niveau d’agrégation, ces calculs peuvent prendre de 6 à 10 heures pour un seul scénario de prix avec des systèmes classiques de calcul par batch. Pour les enseignes traitant de nombreux SKU, l’optimisation passe alors par l’adoption de technologies spécialisées, conçues pour exécuter ces types de calculs en vrai temps réel. La combinaison du cloud et de l’informatique in-memory par exemple permet de traiter en moins de deux minutes ce qui nécessiterait 10 heures avec des systèmes classiques de bases de données. Cela permet aux enseignes gérant de nombreux SKUs non seulement d’optimiser leurs prix plus rapidement et plus fréquemment, mais aussi d’atteindre un niveau encore plus fin de granularité et de précision dans leur analyse.

Les distributeurs qui font le choix d’une telle plateforme métier, peuvent ainsi espérer améliorer significativement leur compétitivité et leur rentabilité.