INFRASTRUCTURE
Gestion de la qualité des données: les alternatives possibles
ETL, Master Data Management et outils spécialisés avancent des démarches différentes pour répondre à une même problématique : améliorer la cohérence des données.  (21/01/2005)
  En savoir plus
Dossier Business Intelligence
Un système d'information s'adosse généralement à plusieurs serveurs de données renvoyant chacun à un métier particulier (ventes, gestion des ressources humaines, gestion comptable, suivi de production, etc.). Dans de tels environnements, il peut arriver que les données stockées (numéro de client, de facture, etc.) et la manière de les décrire et de les structurer soient parfois incohérentes selon les briques du SI. C'est notamment le cas au sein d'un groupe présentant plusieurs filiales, ou suite à une opération de fusion.

Cette réalité devient une réelle difficulté lors de la mise en oeuvre de démarche de standardisation, visant par exemple à adopter des outils de reporting et d'analyse commun à différentes activités. Pour répondre à cet enjeu, les responsables informatiques faisaient jusqu'ici appel à des solutions d'intégration de type ETL (pour extraction, transfert et chargement de données) conçues à la fois pour centraliser les informations et les nettoyer, avant de les transférer au sein d'un entrepôt - sur lequel des requêtes normalisées peuvent ensuite être réalisées.

"Les outils de gestion de la qualité des données peuvent également jouer un rôle dans ce processus", note Jean-Marie Demoulian, directeur chez Business & Decision. Parmi ces technologies, on compte des solutions aussi bien généralistes (comme celle que fournit par Acsential) que spécialisée (Trillium). Des applications qui cherchent à qualifier et uniformiser le mode de description des informations pour en garantir la correcte exécution. Principale limite : ces dispositifs ne sont pas conçus pour s'assurer de la qualité des données à la source, mais généralement lors de leur transfert vers un système centralisé.

Un référentiel de données de base
Conceptualisé par l'institut Meta Group, le Master Data Management a justement pour but d'adresser cette question. Cette méthode très récente consiste à regrouper l'ensemble des données dites "de base" (ou Master Data) eu sein d'un référentiel visant à jouer un rôle de pré-requis lors de la mise à jour de tel ou tel système ou base de données.

Concrètement, ce référentiel fédère l'ensemble des objets essentiels à la vie de l'entreprise, et décrit les liens qu'ils entretiennent entre eux : numéros de référence client, fournisseurs, partenaires, etc. Grâce à cette sur-couche généralement associée à des mécanismes de contrôle et de validation, les objets sont décrits de façon homogène d'une base à l'autre et les doublons évités. Au final, ce mécanisme garantit la qualité des données en évitant les erreurs et conflits potentiels.

  En savoir plus
Dossier Business Intelligence
Au chapitre des acteurs positionnés sur ce créneau, on compte SAP, Kalido ou encore i2. "L'objectif de ces outils est toujours le même. Ils répondent simplement au problème de façon différente en s'attaquant directement aux sources de données", confie Jean-Marie Demoulian. Ces produits doivent maintenant faire leur preuve.
 
 
Antoine CROCHET-DAMAIS, JDN Solutions
 
 
Accueil | Haut de page
 
 

  Nouvelles offres d'emploi   sur Emploi Center
Auralog - Tellmemore | Publicis Modem | L'Internaute / Journal du Net / Copainsdavant | Isobar | MEDIASTAY

Voir un exemple

Voir un exemple

Voir un exemple

Voir un exemple

Voir un exemple

Toutes nos newsletters