Réussir une démarche Big Data RH

Les approches « big data » se multiplient au sein des entreprises. Pourtant, lorsque l’on regarde de près, les résultats ne sont souvent pas à la hauteur des enjeux et des budgets engagés... Voici quelques clefs pour une approche « donnée » réussie.

Les marchés se transforment rapidement. Les modes de fonctionnement internes et externes des entreprises sont réinterrogés. Certains métiers disparaissent ou se créent, tous se transforment. Les enjeux sont multiples, il s’agit d’inventer de nouvelles passerelles de mobilité, de prendre en compte les motivations individuelles pour un meilleur bien-être au travail, d’intégrer la notion de bassins d’emploi dans les parcours de carrière... Pour faire face à ces changements et se réinventer, la quasi-totalité des entreprises se sont aujourd’hui lancées dans un programme de transformation de leurs métiers au cœur desquels se trouve souvent la donnée.

Les approches « big data » se multiplient au sein des entreprises. Pourtant, lorsque l’on regarde de près et malgré leurs efforts, les résultats ne sont souvent pas à la hauteur des enjeux et des budgets engagés... Voici quelques clefs pour une approche « donnée » réussie :

1. Le métier doit piloter la donnée et pas le contraire…

Pour éviter de « s’égarer », une approche de ce type doit être guidée par l’expérience métier.

Une tentation naturelle, lorsque l’on se lance dans une démarche « Big Data » est de vouloir « faire parler » la donnée en faisant ressortir des corrélations/causalités que l’on n’aurait pas imaginées. L’expérience nous permet d’affirmer qu’il s’agit d’une erreur. L’approche « boite noire » fait émerger le plus souvent des « faux positifs ». Ces derniers seront inutilisables ou risquent de lancer l’entreprise sur de fausses pistes. La plupart des entreprises ayant tenté ce type d’approche en sont revenues.

La « data science » doit être confrontée avec le métier pour être efficace. Les innovations RH sont le fruit d’un dialogue itératif entre données et métier. 

Pour cela quelques lignes de conduite ont fait leurs preuves :

  • Commencer par identifier précisément les problèmes à résoudre avant de s’intéresser à la data. Pour « ne pas se noyer », il est nécessaire de préciser rapidement ce que l’on va chercher  et d’identifier le type de problème à résoudre. Par exemple, un problème de compétences de vente sera matérialisé par une faible productivité commerciale. La question à résoudre sera alors de savoir comment, grâce à la donnée il est possible d’identifier une personne potentiellement performante pour la vente même si elle n’a pas un passé de vendeur. Une fois identifiée, on cherchera au travers de la donnée à identifier par quels moyens la développer, la fidéliser…
  • Savoir faire preuve de curiosité pour trouver des corrélations innovantes. S’il est indispensable de bien définir les problématiques métiers en amont, il est tout aussi indispensable de savoir “sortir des sentiers battus” et tester des corrélations auxquelles on n’aurait pas initialement pensé.  “Faire du Big Data” revient à se poser des questions de façon itérative tout en restant les « pieds sur terre » par rapport au métier.

2. Un point majeur conditionne la capacité d’exploitation de l’information recueillie :  la qualité des données

La qualité des données RH est souvent largement perfectible. Les champs du SIRH sont remplis  de façon incorrecte avec des informations qui sont parfois périmées, inappropriées ou difficilement exploitables.

Une partie importante du travail à réaliser lors du cadrage d’un projet data est de faire un « assessment » de la qualité de la donnée disponible.

Cette évaluation se fait selon 5 axes :

  • L’accessibilité : les informations sont-elles faciles à requêter, les formats des fichiers sont-ils facilement exploitables ?
  • L’uniformité : les bases de données sont-elles structurées de la même manière d’une entité à une autre ?
  • L’exhaustivité : les bases de données sont-elles complètes ou manque-t-il des informations pour les rendre exploitables ?  
  • La fiabilité : les données sont-elles de qualités et mises à jour ?
  • La profondeur : depuis quand a-t-on des données qui soient exploitables ? Ce dernier aspect est particulièrement important si l’on veut pouvoir travailler sur l’élaboration de modèles prédictifs.

Il n’est pas rare que 70 à 80% du travail sur un projet de data science soit consacré au nettoyage des bases de données. Si cela n’est pas fait, aucune exploitation statistique n’a de sens. Pour améliorer la qualité intrinsèque de la donnée dans le temps, une sensibilisation des métiers est nécessaire, car il faut souvent « toucher » aux processus.

3. Il est indispensable de « prendre du recul » par rapport à la nature des données disponibles avant de lancer des analyses

Si certaines variables sont significatives quelle que soit l’entreprise ou l’époque, d’autres dépendent du contexte économique, social, sociétal, culturel de l’organisation. Ce qui était vrai hier ne l’est pas forcément aujourd’hui et encore moins demain… le caractère significatif d’une variable n’est pas forcément pérenne. Par ailleurs, il faut savoir faire face à la profusion d’informations et ordonner ces dernières dans une logique prospective si l’on veut anticiper les situations, dépasser les évidences premières et identifier les réelles pistes d’amélioration.

L’interprétation de la donnée doit aujourd’hui s'adapter à des métiers protéiformes, sans oublier l’émergence de nouveaux métiers dont certains sont encore difficiles à cerner précisément.

Dans ce contexte, il est impératif d’être très clair sur la signification/significativité de la donnée que l’on collecte.

Comment calcule-t-on le « turnover » ? Prend-t-on en compte les personnes qui quittent la société ou qui changent d’entité au sein du groupe ? A partir de combien de mois considère-t-on cela comme du « turnover » et non comme une mutation normale ? Prend-t-on en compte les personnes qui créent leur start-up dans le calcul qui est fait ? Comment comptabilise-t-on les personnes à mi-temps ?...

La réponse à ces questions peut changer de façon assez fondamentale les résultats des analyses.

Il convient donc de constituer un « glossaire de la donnée » (si cela n’est déjà fait), qui servira de référentiel aux analyses qui seront faites.

4. Le pilotage par la donnée constitue une rupture culturelle beaucoup plus profonde qu’on ne le croit généralement

Il s’agit avant tout d’une nouvelle « culture d’entreprise » qui doit être accompagnée.

Piloter les RH par la donnée relève d’une nouvelle culture d’entreprise. Cette culture d’entreprise s’exprime au travers de 2 axes majeurs :

  • L’importance accordée à la qualité de la donnée que l’on produit

Beaucoup d’opérationnels portent peu d’attention à la qualité des données qu’ils renseignent dans les systèmes d’information. Les raisons de ce manque de rigueur sont multiples. Elles vont de la simple négligence (sentiment que cela n’est pas très important ou que cela ne sert à rien) à des modes de fonctionnement « moins avouables » (consolidation de sa zone de  « pouvoir » au travers de l’information, manque de courage managérial…). Ces éléments culturels devront être infléchis si l’on veut être en mesure de s’appuyer sur une donnée exploitable. Cela ne va pas de soi et doit être intégré dans le programme de conduite du changement lié à la transformation numérique.

  • Le développement d’une ouverture managérial plus grande

Une des difficultés des RH est de convaincre les cadres opérationnels de transmettre, via le SIRH, l’ensemble des informations sur leurs collaborateurs. Les managers, qui disposent d’une grande connaissance des compétences de leurs équipes, sont enclins à communiquer sur leurs besoins de personnel auquel la mobilité pourra répondre, mais ils sont réticents à communiquer sur les meilleurs éléments de leur équipe, qu’ils n’ont pas envie de voir partir, même au sein d’un même groupe.

Il convient de leur faire prendre conscience de l'intérêt de favoriser la mobilité interne. Cela permet  la montée en compétences et/ou en responsabilités du salarié, et  l'entreprise a tout à y  gagner : fidélisation, engagement, réductions de coûts.

Par ailleurs, laisser facilement partir les talents de son équipe permet aussi d’avoir accès à de nouveau talents car l’ensemble de processus est devenu plus fluide. Avec la transformation digitale, les modes de management se transforment radicalement. On passe d’un mode vertical à un mode collaboratif avec un partage d’informations. Le succès des approches Big Data reposent sur ces évolutions et en sont une expression de plus.

5. Rabelais avait raison…

L’objectif d’une démarche de GPEC analytique est d’augmenter la fluidité entre les fonctions et les métiers et de mettre en place de nouvelles passerelles permettant d’assurer idéalement « un avenir pour tous » 

Il faut prendre garde à ce que la mise en place de modèles basés sur la donnée prédictive n’aboutisse pas à donner une légitimité scientifique à de nouveaux processus de sélection, réputés infaillibles car scientifiques, dont le résultat serait de fabriquer des clones.

Une approche « Big Data » nécessite naturellement de respecter scrupuleusement la réglementation relative à la protection des données personnelles ainsi que la réglementation sur la discrimination.

Le plus important reste néanmoins de la piloter dans un esprit d’ouverture et d’enrichissement et non d’industrialisation de démarches de sélection qui seraient éminemment discutables. Cette vigilance est de la Responsabilité de la DRH et du Projet de Transformation Numérique interne.

N’oublions pas que « Science sans conscience n’est que ruine de l’âme… » !