|
|
INFRASTRUCTURE |
Gestion de la qualité des données: les alternatives possibles |
ETL, Master Data Management et outils spécialisés avancent des démarches différentes pour répondre à une même problématique : améliorer la cohérence des données.
(21/01/2005) |
|
Un système d'information s'adosse généralement à plusieurs serveurs de données renvoyant chacun à un métier particulier (ventes, gestion des ressources humaines, gestion comptable, suivi de production, etc.). Dans de tels environnements, il peut arriver que les données stockées (numéro de client, de facture, etc.) et la manière de les décrire et de les structurer soient parfois incohérentes selon les briques du SI. C'est notamment le cas au sein d'un groupe présentant plusieurs filiales, ou suite à une opération de fusion.
Cette réalité devient une réelle difficulté lors de la mise en oeuvre de démarche de standardisation, visant par exemple à adopter des outils de reporting et d'analyse commun à différentes activités. Pour répondre à cet enjeu, les responsables informatiques faisaient jusqu'ici appel à des solutions d'intégration de type ETL (pour extraction, transfert et chargement de données) conçues à la fois pour centraliser les informations et les nettoyer, avant de les transférer au sein d'un entrepôt - sur lequel des requêtes normalisées peuvent ensuite être réalisées.
"Les outils de gestion de la
qualité des données peuvent également jouer un rôle dans ce processus", note Jean-Marie Demoulian, directeur chez Business & Decision. Parmi ces technologies, on compte des solutions aussi bien généralistes (comme celle que fournit par Acsential) que spécialisée (Trillium). Des applications qui cherchent à qualifier et uniformiser le mode de description des informations pour en garantir la correcte exécution. Principale limite : ces dispositifs ne sont pas conçus pour s'assurer de la qualité des données à la source, mais généralement lors de leur transfert vers un système centralisé.
Un référentiel de données de base |
Conceptualisé par l'institut Meta Group, le Master Data Management a justement pour but d'adresser cette question. Cette méthode très récente consiste à regrouper l'ensemble des données dites "de base" (ou Master Data) eu sein d'un référentiel visant à jouer un rôle de pré-requis lors de la mise à jour de tel ou tel système ou base de données.
Concrètement, ce référentiel fédère l'ensemble des objets essentiels à la vie de l'entreprise, et décrit les liens qu'ils entretiennent entre eux : numéros de référence client, fournisseurs, partenaires, etc.
Grâce à cette sur-couche généralement associée à des mécanismes de contrôle et de validation, les objets sont décrits de façon homogène d'une base à l'autre et les doublons évités. Au final, ce mécanisme garantit la qualité des données en évitant les erreurs et conflits potentiels.
Au chapitre des acteurs positionnés sur ce créneau, on compte SAP, Kalido ou encore i2. "L'objectif de ces outils est toujours le même. Ils répondent simplement au problème de façon différente en s'attaquant directement aux sources de données", confie Jean-Marie Demoulian. Ces produits doivent maintenant faire leur preuve. |
|
|