JDNet
Solutions : quelle définition apportez-vous de
la gestion des connaissances, du point de vue de Cybion ?
Stéphane Martin :
Pour moi, la gestion des connaissances est la capacité
pour l'entreprise de bien cerner son savoir, son savoir-faire
et ses compétences internes, et de formaliser
tout cela dans des documents accessibles à sa
propre communauté. Il faut savoir que bien des
connaissances ne sont pas de l'information. Ce sont
souvent celles que détiennent les collaborateurs
qui ne sont pas forcément des experts. Par ailleurs,
est-on capable d'identifier quelle connaissance est
reprise sur quel sujet ? Le knowledge management sert
à mutualiser les connaissances dans l'entreprise,
à travers des procédures ou des normes,
mais aussi dans la tête des experts. On peut la
trouver dans des bases de connaissances ou des documents
partagés, accessibles via des outils comme l'intranet.
Quelle est la part des missions
que vous réalisez autour de la gestion des connaissances,
dans votre activité ? Comment intervenez-vous
sur le terrain ?
S.M. : Cette part est finalement assez faible.
Nous sommes plutôt un cabinet d'études
et de conseil en veille. Le knowledge management est
plus global dans les demandes de nos clients, et nous
ne le traitons pas directement. Nous travaillons plus
sur la surveillance d'un environnement au sens large,
ce qui n'est pas incompatible avec la gestion des connaissances
dont le but est quelque part de retrouver l'information
en interne, qu'elle soit dans la tête des personnes,
sur papier ou dans des bases.
Au départ, nous construisons un plan de recherche
pour identifier quel sont les concepts associés
les uns avec les autres, et quelles sont les sources
d'informations en rapport. La question pour nous est
de savoir comment définir les contours de la
problématique de recherche sur Internet et dans
des bases, et comment définir les sources. Cela
nous permet de valider que nous sommes en adéquation
avec ce que veut le client. Nous intervenons principalement
dans le processus de validation des connaissances, mais
aussi en complément dans la phase d'accompagnement
des projets.
Comment situez-vous votre métier,
la veille, par rapport à la gestion des connaissances
et la business intelligence ? Sont-elles complémentaires
? Peut-on définir des recoupements entre les
processus ?
S.M. : La connaissance est l'information qui
a été validée et enrichie. En intelligence
économique, c'est ce que l'on appelle le renseignement.
L'information est enrichie par la connaissance de plusieurs
personnes. Lorsque l'on a qualifié les sources,
l'on procède à une interprétation
de l'information qui génère une connaissance.
Tout le problème de la business intelligence
est qu'il s'agit d'appliquer des traitements tels que
du data mining à une masse de contenus, et cela
n'est possible qu'à partir du moment où
les documents sont déjà structurés.
Le text mining, pour le citer en exemple, demande de
reformater les documents, ce qui nécessite une
intervention humaine.
Au niveau du data mining, il est vrai que les données
sont souvent rangées dans un tableur ou modélisées
dans une base, et l'on peut effectuer directement sur
celles-ci des traitements statistiques. Vis-à-vis
du texte, il faut passer par une étape de structuration.
Qu'il s'agisse d'analyses statistique ou sémantique,
qui sont complémentaires, ces tâches ne
peuvent pas être automatisées complètement
à l'inverse du data mining. Nous touchons du
doigt mon point de désaccord avec la business
intelligence. Si l'on écoute certains discours,
on obtiendrait, en automatisant, une information valide
et utile tout de suite . Elle deviendrait en quelque
sorte la couche de connaissance sans traitement humain,
qui sert au décideur.
Guillaume
Lory : A mon sens, la veille se situe au croisement
des deux. Un veilleur n'a pas seulement pour but de
collecter l'information, mais aussi d'en établir
une série de déductions. Son objectif
est d'obtenir tout cela avant de produire des conseils
stratégiques. Pour y parvenir, il doit détecter
des rumeurs et des tendances. Donc en aval de la classification
et de la réutilisation de l'information, l'on
trouve le knowledge management. Si l'on veut séparer
la business intelligence de la gestion des connaissances,
d'un côté l'on retrouve la collecte, l'analyse,
le traitement et la confrontation humaine, et de l'autre
la mémorisation, la diffusion et le stockage
de l'information collectée. Chez Cybion, nous
recouvrons tous ces aspects.
Ensuite, peut-on dire que les processus de knowledge
management et de veille se recoupent ? Oui, si l'on
regarde les facteurs clefs de succès dans leur
mise en oeuvre. Il faut toujours avoir une vision claire
de la démarche que l'on engage, en déterminant
bien ce que l'on veut surveiller, où cela se
trouve, ce que l'on stocke, ce que l'on indexe car c'est
ce que l'on veut retrouver. Du point de vue de la gestion
des connaissances, il est nécessaire d'obtenir
un soutien de la direction et une adhésion forte
du personnel. En veille, les spécialistes ont
très vite conscience du volume très important
à gérer. C'est une des raisons pour laquelle,
en ce qui concerne le knowledge management, il est toujours
plus difficile de mettre en commun l'information dont
on dispose. L'autre raison est que les collaborateurs
ne veulent pas toujours partager l'information, car
elle leur permet de garder un certain pouvoir. On retrouve
donc des cheminements identiques en gestion des connaissances
et en veille, mais ce sont deux processus différents.
Dans la phase d'implémentation
de moyens comme la gestion des connaissances et la veille
par rapport à sa stratégie, l'entreprise
ne risque-t-elle pas, naturellement ou non, de privilégier
une tendance par rapport à l'autre ?
S.M. : Le knowledge management est devenu une
mode, et est employé à toutes les sauces.
En ce sens, il a tendance à surpasser la notion
d'intelligence économique qui en fait, n'est
jamais passée en tant que telle. La gestion des
connaissances et la veille ne sont que deux outils au
service de la stratégie de l'entreprise. La veille
stratégique se traduit par un dépassement
du support documentaire dans un esprit plus actif. On
peut surveiller son environnement, mais on ne le peut
que si l'on se connaît soi-même, ce qui
revient à savoir ce que l'on cherche et dans
quel but.
Pour obtenir des résultats avec le knowledge
management, il faut se poser une série de questions
au départ : "quel est mon métier
?", "quelles sont mes compétences ?"
et "quels sont les hommes sur lesquels je peux
m'appuyer ?". On rentre dans un volet humain,
et l'on est davantage sur du management que sur la mise
en oeuvre technique des outils. Il existe clairement
une polémique dans l'entreprise sur le fait de
savoir qui doit être maître d'oeuvre : la
direction informatique, la DRH, la direction de la stratégie
ou direction de la veille, ou la direction des études
et de la documentation...
Pour moi, un système qui se veut optimal doit
se profiler dans un esprit d'intelligence économique,
qu'il s'agisse de gestion des connaissances ou de veille
de l'information. Une fois que l'on a bien surveillé
l'environnement et récolté l'information,
il faut la synthétiser au travers de fiches -
comme des fiches produits - et tout doit être
capitalisé en étant stocké dans
une base de données qui est partie prenante de
la base de connaissances. Il existe un va et vient incessant
entre les démarches de veille et de knowledge
management. Mais l'une ne prend pas le dessus sur l'autre.
A quel stade intervient l'exploitation
des outils par les hommes pour bien répondre
à la problématique de l'entreprise ? Le
niveau d'automatisation va-t-il être de plus en
plus élevé au détriment de
l'humain ?
G.L. : Dans un processus quel qu'il soit, avant
de penser aux outils il faut tenir compte du facteur
humain. Les éditeurs incitent à acheter
un système de gestion des connaissances en disant
que cela se fait tout seul. Mais en fait, c'est d'abord
un processus humain que l'on va chercher à automatiser.
Les outils sont indispensables dans certains cas comme
supports, mais pas comme une solution clef en main.
On n'installe pas un logiciel pour, entre guillemets,
"faire de la gestion des connaissances".
Dans la veille, nous ne sommes pas confrontés
aux mêmes types de problématiques qu'en
gestion des connaissances. Nous nous intéressons
principalement à Internet comme source d'informations.
Les outils que nous pouvons utiliser, comme Arisem ou
LexiMine de LexiQuest (racheté par SPSS, ndlr)
vont permettre à des veilleurs d'accélérer
leurs traitements. Mais comme ils sont confrontés
à une masse colossale d'informations, l'équation
ne va pas forcément dans le sens de la réduction
du nombre de personnes. Il faudrait pour cela économiser
du temps sur l'analyse humaine, ce que les outils ne
font pas encore de manière satisfaisante.
Quand utiliser un outil d'analyse,
et quand se servir d'un outil de recherche plus classique
?
G.L. : L'outil de recherche est plus simple que
l'outil d'analyse. Quand on analyse des sphères
informelles, on considère l'existence d'un certain
nombre de bases de connaissances. Prenons la question
"en quelle saison planter un arbre ?". Nous
pouvons être pratiquement sûr que dans des
millions de messages, on peut trouver la réponse.
Pour analyser cette masse colossale, il faut utiliser
des outils d'analyse assez poussés. La collecte
ne pose en général aucun problème,
mais parmi les outils d'analyse que l'on peut utiliser,
et qui sont assez variés, il faut savoir lequel
et pour quoi faire.
Et donc, nous retrouvons des outils comme LexiMine qui
permet d'établir une cartographie sur un sujet
spécifique comme l'élection présidentielle.
Il s'agit de savoir qui parle de quel candidat, en quel
volume, comment l'information évolue à
son sujet. C'est à dire : peut-on détecter
des signaux faibles sur ce candidat ?
Rapidement, pourriez-vous en
dire un peu plus à nos lecteurs sur cette méthode
des signaux faibles ?
G.L. : La méthode est toujours de collecter
l'information, de la traiter/l'analyser et de la classer,
et de la rediffuser. Lorsque l'on procède à
l'analyse humaine, on cherche par exemple à détecter
des ruptures de volumes. Si le nombre de messages est
de 300 en janvier et de 500 en février, l'analyste
constate une augmentation des discussions et peut placer
un focus dans ses recherches. Ensuite, il regarde comment
évolue une discussion très précise,
et tente de dégager des concepts de pannes, de
ruptures, d'engrenages ou autres.
Peut-on aller plus loin dans
l'analyse, avec des outils plus précis ?
G.L. : Au delà des technologies d'analyse
statistique comme ce que met en application LexiMine,
où l'on reste proche des mots pris hors contexte,
l'on peut essayer des outils comme Arisem pour extraire
le sens des mots dans leur contexte. Si l'on effectue
une recherche sur Total, le contexte peut être
celui de la pétrochimie, ou un autre. Ce sont
des outils d'analyse sémantique qui interprètent
le sens des messages et tentent de les corréler
de manière intelligente.
Ceci dit, sur Internet c'est assez problématique
d'utiliser des outils d'extraction automatique de sens,
car l'on peut arriver facilement sur des contresens
et être amené sur de fausses pistes. C'est
pourquoi le regard humain est capital. Le "tout-automatisé"
n'a pas encore donné de réelle satisfaction
et n'en donnera jamais. Derrière du point de
vue stratégique, il est un objectif guidé
par l'être humain qui cherche à se faire
aider par des outils. Mais si l'outil commence à
piloter l'humain, on arrive à de la non information
et du contresens.
Quels outils de veille utilisent
au quotidien les analystes chez Cybion ?
S.M. : Nous utilisons en fait les trois grandes
catégories : collecte, traitement et diffusion.
Nous commençons par le simple méta-moteur
BullsEye (de l'éditeur Intelliseek,
ndlr), un outil de recherche un peu comme Copernic mais
qui comporte plusieurs avantages. D'une part, le nombre
de sources implémentées est plus important
et il est possible d'en rajouter. D'autre part, on peut
aussi placer un site sous surveillance. Après,
nous allons aussi commercialiser des ensembles de sources
d'informations personnalisées avec des outils
de même type comme Strategic
Finder. En interne, nous personnalisons BullsEye
pour les secteurs de la cosmétique, des télécommunications,
etc. en fonction des besoins de nos clients.
Ensuite, nous avons recours aux outils de surveillance,
comme NetAttaché qui n'est plus commercialisé,
et WebSpector édité par Illumix.
Ce dernier peut surveiller une page précise à
l'intérieur d'un site. Un outil plus élaboré
est DigOut de Arisem,
qui effectue une sélection de l'information selon
des critères sémantiques. Ce sont des
outils que l'on retrouve en phase de collecte. N'oublions
pas les outils de traitement statistique et logique
comme ceux que proposent Verity
et Fulcrum,
qui permettent d'indexer les documents et d'effectuer
des recherches à l'intérieur. Encore plus
poussé sur la partie statistique et linguistique,
citons LexiMine
qui s'avère capable de sortir des thèmes
de gros corpus d'informations. Puis, nous pouvons aussi
parler d'une forme dérivée, les outils
statistiques morpho-linguistiques comme Temis
et WorldMapper.
Enfin, nous utilisons des outils de diffusion par newsletters
ou sur les intranets de nos clients. Pour vous citer
quelques acteurs parmi ceux qui couvrent toute la chaîne
depuis la collecte de l'information jusqu'à sa
diffusion : Arisem,
Autonomy,
Datops
et Alogic.
Pour terminer sur une note un
peu plus futuriste peut-être, quelles sont les
technologies en vogue, qui font ou qui devraient faire
parler d'elles à l'avenir ?
S.M. : Je pense que l'on arrive à une
renouveau de l'intelligence artificielle avec des sociétés
qui fleurissent en France, comme Kalima
qui est une filiale du groupe Thalès avec un
financement d'IBM, et Temis. Ceci, sans parler du développement
de sociétés comme Arisem et Sinequa. Leurs
outils ont pas mal évolué et sont de plus
en plus utilisés. Citons aussi la société
Exalead
fondée par François Bourdoncle, celui
qui avait développé la technologie "refine
search" de AltaVista. Quand on lançait une
requête, on se voyait proposer de nouveaux concepts
de recherche. Son objectif est de mettre à le
disposition des organismes de recherche des fonctions
en plus pour les utilisateurs. Quand vous effectuez
une recherche de base, vous trouvez de nouveaux concepts
associés. C'est ce que fait aussi Autonomy, mais
ces technologies sont peu accessibles au grand public.
A part cela, les outils comme LexiMine sont peut-être
un peu moins évolués, mais ils sont tout
de même très puissants pour faire de la
veille et détecter des signaux faibles. Même
avec une technologie simple comme pour tout outil existant,
il faut en connaître les limites. Et une grande
nouveauté n'apporte pas toujours une grande révolution.
|