Rechercher :         

Sociétés Prestataires Carnet Formations Progiciels Encyclo Fonds Guide d'achat Téléchargement
Interviews

Stéphane Martin,
Guillaume Lory
Directeur des études,
Directeur technique
Cybion

"Le KM et la veille ne sont que deux outils au service de la stratégie de l'entreprise"
          

Société fondée en 1996 par Joël de Rosnay et Carlo Revelli, Cybion est un prestataire spécialisé dans l'intelligence économique. Pour comprendre quels sont les liens entre ce domaine d'application des technologies de recherche et d'analyse, et la gestion des connaissances au sens large, nous nous sommes tournés vers deux de ses dirigeants, Stéphane Martin et Guillaume Lory. Qui apportent un éclairage sur leur métier, au confluent entre knowledge management et business intelligence.

Voir le dossier Gestion des connaissances

Propos recueillis par François Morel le 16 avril 2002 .

JDNet Solutions : quelle définition apportez-vous de la gestion des connaissances, du point de vue de Cybion ?
Stéphane Martin : Pour moi, la gestion des connaissances est la capacité pour l'entreprise de bien cerner son savoir, son savoir-faire et ses compétences internes, et de formaliser tout cela dans des documents accessibles à sa propre communauté. Il faut savoir que bien des connaissances ne sont pas de l'information. Ce sont souvent celles que détiennent les collaborateurs qui ne sont pas forcément des experts. Par ailleurs, est-on capable d'identifier quelle connaissance est reprise sur quel sujet ? Le knowledge management sert à mutualiser les connaissances dans l'entreprise, à travers des procédures ou des normes, mais aussi dans la tête des experts. On peut la trouver dans des bases de connaissances ou des documents partagés, accessibles via des outils comme l'intranet.

Quelle est la part des missions que vous réalisez autour de la gestion des connaissances, dans votre activité ? Comment intervenez-vous sur le terrain ?
S.M. : Cette part est finalement assez faible. Nous sommes plutôt un cabinet d'études et de conseil en veille. Le knowledge management est plus global dans les demandes de nos clients, et nous ne le traitons pas directement. Nous travaillons plus sur la surveillance d'un environnement au sens large, ce qui n'est pas incompatible avec la gestion des connaissances dont le but est quelque part de retrouver l'information en interne, qu'elle soit dans la tête des personnes, sur papier ou dans des bases.

Au départ, nous construisons un plan de recherche pour identifier quel sont les concepts associés les uns avec les autres, et quelles sont les sources d'informations en rapport. La question pour nous est de savoir comment définir les contours de la problématique de recherche sur Internet et dans des bases, et comment définir les sources. Cela nous permet de valider que nous sommes en adéquation avec ce que veut le client. Nous intervenons principalement dans le processus de validation des connaissances, mais aussi en complément dans la phase d'accompagnement des projets.

Comment situez-vous votre métier, la veille, par rapport à la gestion des connaissances et la business intelligence ? Sont-elles complémentaires ? Peut-on définir des recoupements entre les processus ?
S.M. : La connaissance est l'information qui a été validée et enrichie. En intelligence économique, c'est ce que l'on appelle le renseignement. L'information est enrichie par la connaissance de plusieurs personnes. Lorsque l'on a qualifié les sources, l'on procède à une interprétation de l'information qui génère une connaissance. Tout le problème de la business intelligence est qu'il s'agit d'appliquer des traitements tels que du data mining à une masse de contenus, et cela n'est possible qu'à partir du moment où les documents sont déjà structurés. Le text mining, pour le citer en exemple, demande de reformater les documents, ce qui nécessite une intervention humaine.

Au niveau du data mining, il est vrai que les données sont souvent rangées dans un tableur ou modélisées dans une base, et l'on peut effectuer directement sur celles-ci des traitements statistiques. Vis-à-vis du texte, il faut passer par une étape de structuration. Qu'il s'agisse d'analyses statistique ou sémantique, qui sont complémentaires, ces tâches ne peuvent pas être automatisées complètement à l'inverse du data mining. Nous touchons du doigt mon point de désaccord avec la business intelligence. Si l'on écoute certains discours, on obtiendrait, en automatisant, une information valide et utile tout de suite . Elle deviendrait en quelque sorte la couche de connaissance sans traitement humain, qui sert au décideur.

Guillaume Lory : A mon sens, la veille se situe au croisement des deux. Un veilleur n'a pas seulement pour but de collecter l'information, mais aussi d'en établir une série de déductions. Son objectif est d'obtenir tout cela avant de produire des conseils stratégiques. Pour y parvenir, il doit détecter des rumeurs et des tendances. Donc en aval de la classification et de la réutilisation de l'information, l'on trouve le knowledge management. Si l'on veut séparer la business intelligence de la gestion des connaissances, d'un côté l'on retrouve la collecte, l'analyse, le traitement et la confrontation humaine, et de l'autre la mémorisation, la diffusion et le stockage de l'information collectée. Chez Cybion, nous recouvrons tous ces aspects.

Ensuite, peut-on dire que les processus de knowledge management et de veille se recoupent ? Oui, si l'on regarde les facteurs clefs de succès dans leur mise en oeuvre. Il faut toujours avoir une vision claire de la démarche que l'on engage, en déterminant bien ce que l'on veut surveiller, où cela se trouve, ce que l'on stocke, ce que l'on indexe car c'est ce que l'on veut retrouver. Du point de vue de la gestion des connaissances, il est nécessaire d'obtenir un soutien de la direction et une adhésion forte du personnel. En veille, les spécialistes ont très vite conscience du volume très important à gérer. C'est une des raisons pour laquelle, en ce qui concerne le knowledge management, il est toujours plus difficile de mettre en commun l'information dont on dispose. L'autre raison est que les collaborateurs ne veulent pas toujours partager l'information, car elle leur permet de garder un certain pouvoir. On retrouve donc des cheminements identiques en gestion des connaissances et en veille, mais ce sont deux processus différents.

Dans la phase d'implémentation de moyens comme la gestion des connaissances et la veille par rapport à sa stratégie, l'entreprise ne risque-t-elle pas, naturellement ou non, de privilégier une tendance par rapport à l'autre ?
S.M. : Le knowledge management est devenu une mode, et est employé à toutes les sauces. En ce sens, il a tendance à surpasser la notion d'intelligence économique qui en fait, n'est jamais passée en tant que telle. La gestion des connaissances et la veille ne sont que deux outils au service de la stratégie de l'entreprise. La veille stratégique se traduit par un dépassement du support documentaire dans un esprit plus actif. On peut surveiller son environnement, mais on ne le peut que si l'on se connaît soi-même, ce qui revient à savoir ce que l'on cherche et dans quel but.

Pour obtenir des résultats avec le knowledge management, il faut se poser une série de questions au départ : "quel est mon métier ?", "quelles sont mes compétences ?" et "quels sont les hommes sur lesquels je peux m'appuyer ?". On rentre dans un volet humain, et l'on est davantage sur du management que sur la mise en oeuvre technique des outils. Il existe clairement une polémique dans l'entreprise sur le fait de savoir qui doit être maître d'oeuvre : la direction informatique, la DRH, la direction de la stratégie ou direction de la veille, ou la direction des études et de la documentation...

Pour moi, un système qui se veut optimal doit se profiler dans un esprit d'intelligence économique, qu'il s'agisse de gestion des connaissances ou de veille de l'information. Une fois que l'on a bien surveillé l'environnement et récolté l'information, il faut la synthétiser au travers de fiches - comme des fiches produits - et tout doit être capitalisé en étant stocké dans une base de données qui est partie prenante de la base de connaissances. Il existe un va et vient incessant entre les démarches de veille et de knowledge management. Mais l'une ne prend pas le dessus sur l'autre.

A quel stade intervient l'exploitation des outils par les hommes pour bien répondre à la problématique de l'entreprise ? Le niveau d'automatisation va-t-il être de plus en plus élevé au détriment de l'humain ?
G.L. : Dans un processus quel qu'il soit, avant de penser aux outils il faut tenir compte du facteur humain. Les éditeurs incitent à acheter un système de gestion des connaissances en disant que cela se fait tout seul. Mais en fait, c'est d'abord un processus humain que l'on va chercher à automatiser. Les outils sont indispensables dans certains cas comme supports, mais pas comme une solution clef en main. On n'installe pas un logiciel pour, entre guillemets, "faire de la gestion des connaissances".

Dans la veille, nous ne sommes pas confrontés aux mêmes types de problématiques qu'en gestion des connaissances. Nous nous intéressons principalement à Internet comme source d'informations. Les outils que nous pouvons utiliser, comme Arisem ou LexiMine de LexiQuest (racheté par SPSS, ndlr) vont permettre à des veilleurs d'accélérer leurs traitements. Mais comme ils sont confrontés à une masse colossale d'informations, l'équation ne va pas forcément dans le sens de la réduction du nombre de personnes. Il faudrait pour cela économiser du temps sur l'analyse humaine, ce que les outils ne font pas encore de manière satisfaisante.

Quand utiliser un outil d'analyse, et quand se servir d'un outil de recherche plus classique ?
G.L. : L'outil de recherche est plus simple que l'outil d'analyse. Quand on analyse des sphères informelles, on considère l'existence d'un certain nombre de bases de connaissances. Prenons la question "en quelle saison planter un arbre ?". Nous pouvons être pratiquement sûr que dans des millions de messages, on peut trouver la réponse. Pour analyser cette masse colossale, il faut utiliser des outils d'analyse assez poussés. La collecte ne pose en général aucun problème, mais parmi les outils d'analyse que l'on peut utiliser, et qui sont assez variés, il faut savoir lequel et pour quoi faire.

Et donc, nous retrouvons des outils comme LexiMine qui permet d'établir une cartographie sur un sujet spécifique comme l'élection présidentielle. Il s'agit de savoir qui parle de quel candidat, en quel volume, comment l'information évolue à son sujet. C'est à dire : peut-on détecter des signaux faibles sur ce candidat ?

Rapidement, pourriez-vous en dire un peu plus à nos lecteurs sur cette méthode des signaux faibles ?
G.L. : La méthode est toujours de collecter l'information, de la traiter/l'analyser et de la classer, et de la rediffuser. Lorsque l'on procède à l'analyse humaine, on cherche par exemple à détecter des ruptures de volumes. Si le nombre de messages est de 300 en janvier et de 500 en février, l'analyste constate une augmentation des discussions et peut placer un focus dans ses recherches. Ensuite, il regarde comment évolue une discussion très précise, et tente de dégager des concepts de pannes, de ruptures, d'engrenages ou autres.

Peut-on aller plus loin dans l'analyse, avec des outils plus précis ?
G.L. : Au delà des technologies d'analyse statistique comme ce que met en application LexiMine, où l'on reste proche des mots pris hors contexte, l'on peut essayer des outils comme Arisem pour extraire le sens des mots dans leur contexte. Si l'on effectue une recherche sur Total, le contexte peut être celui de la pétrochimie, ou un autre. Ce sont des outils d'analyse sémantique qui interprètent le sens des messages et tentent de les corréler de manière intelligente.

Ceci dit, sur Internet c'est assez problématique d'utiliser des outils d'extraction automatique de sens, car l'on peut arriver facilement sur des contresens et être amené sur de fausses pistes. C'est pourquoi le regard humain est capital. Le "tout-automatisé" n'a pas encore donné de réelle satisfaction et n'en donnera jamais. Derrière du point de vue stratégique, il est un objectif guidé par l'être humain qui cherche à se faire aider par des outils. Mais si l'outil commence à piloter l'humain, on arrive à de la non information et du contresens.

Quels outils de veille utilisent au quotidien les analystes chez Cybion ?
S.M. : Nous utilisons en fait les trois grandes catégories : collecte, traitement et diffusion
. Nous commençons par le simple méta-moteur BullsEye (de l'éditeur Intelliseek, ndlr), un outil de recherche un peu comme Copernic mais qui comporte plusieurs avantages. D'une part, le nombre de sources implémentées est plus important et il est possible d'en rajouter. D'autre part, on peut aussi placer un site sous surveillance. Après, nous allons aussi commercialiser des ensembles de sources d'informations personnalisées avec des outils de même type comme Strategic Finder. En interne, nous personnalisons BullsEye pour les secteurs de la cosmétique, des télécommunications, etc. en fonction des besoins de nos clients.

Ensuite, nous avons recours aux outils de surveillance, comme NetAttaché qui n'est plus commercialisé, et WebSpector édité par Illumix. Ce dernier peut surveiller une page précise à l'intérieur d'un site. Un outil plus élaboré est DigOut de Arisem, qui effectue une sélection de l'information selon des critères sémantiques. Ce sont des outils que l'on retrouve en phase de collecte. N'oublions pas les outils de traitement statistique et logique comme ceux que proposent Verity et Fulcrum, qui permettent d'indexer les documents et d'effectuer des recherches à l'intérieur. Encore plus poussé sur la partie statistique et linguistique, citons LexiMine qui s'avère capable de sortir des thèmes de gros corpus d'informations. Puis, nous pouvons aussi parler d'une forme dérivée, les outils statistiques morpho-linguistiques comme Temis et WorldMapper.

Enfin, nous utilisons des outils de diffusion par newsletters ou sur les intranets de nos clients. Pour vous citer quelques acteurs parmi ceux qui couvrent toute la chaîne depuis la collecte de l'information jusqu'à sa diffusion : Arisem, Autonomy, Datops et Alogic.

Pour terminer sur une note un peu plus futuriste peut-être, quelles sont les technologies en vogue, qui font ou qui devraient faire parler d'elles à l'avenir ?
S.M. : Je pense que l'on arrive à une renouveau de l'intelligence artificielle avec des sociétés qui fleurissent en France, comme Kalima qui est une filiale du groupe Thalès avec un financement d'IBM, et Temis. Ceci, sans parler du développement de sociétés comme Arisem et Sinequa. Leurs outils ont pas mal évolué et sont de plus en plus utilisés. Citons aussi la société Exalead fondée par François Bourdoncle, celui qui avait développé la technologie "refine search" de AltaVista. Quand on lançait une requête, on se voyait proposer de nouveaux concepts de recherche. Son objectif est de mettre à le disposition des organismes de recherche des fonctions en plus pour les utilisateurs. Quand vous effectuez une recherche de base, vous trouvez de nouveaux concepts associés. C'est ce que fait aussi Autonomy, mais ces technologies sont peu accessibles au grand public.

A part cela, les outils comme LexiMine sont peut-être un peu moins évolués, mais ils sont tout de même très puissants pour faire de la veille et détecter des signaux faibles. Même avec une technologie simple comme pour tout outil existant, il faut en connaître les limites. Et une grande nouveauté n'apporte pas toujours une grande révolution.


Nommé directeur des études de Cybion en 1999, en charge de la coordination du pôle Etudes et Veille, Stéphane Martin, 32 ans, avait travaillé auparavant pendant deux ans à la Chambre de Commerce et d'Industrie de Vienne. Il y avait assumé la fonction de chargé de mission Informations Economiques, responsable notamment de la refonte et de l'animation du site Internet. Il est titulaire d'un DESS en intelligence économique et développement des entreprises (1998) et d'un bachelor en Management de l'ESCEM (1997).

De son côté, Guillaume Lory a également intégré Cybion en 1999 au poste de directeur technique. Il possède un DESS "InnovInfo" de l'ISTIA (promotion 1997-98) et poursuit un doctorat auprès de l'Université Paris X.

  Nouvelles offres d'emploi   sur Emploi Center
Auralog - Tellmemore | Publicis Modem | L'Internaute / Journal du Net / Copainsdavant | Isobar | MEDIASTAY



Gratuit - L'actualité des technologies
e-business

Toutes nos newsletters
 
 
 
 
 
 
Logiciels libres
Retours d'expérience, panorama, analyses.
Sommaire
 
Failles de sécurité
Vulnérabilités des logiciels & évaluation des risques.
Sommaire
 
 

Les entreprises de l'Internet
Plus de 5000 sociétés référencées

Les prestataires
Plus de 2600 prestataires

Les fonds
Plus de 100 fiches descriptives

Le carnet des managers Internet
Plus de 1500 dirigeants

Guide des solutions
Plus de 310 briques logicielles