L'apport des données textuelles dans la prise de décision

Et si l'amélioration pérenne de la qualité de nos décisions passait par l'exploitation d'autres données que les données relationnelles et structurées ? Et si les experts métier avaient à nouveau un rôle majeur à jouer ?

L'informatique décisionnelle est entrée dans une ère où la surenchère est monnaie courante. En effet, les algorithmes auto-apprenants influencent de plus en plus les décisions des entreprises. Celles-ci n'hésitent plus à embaucher des équipes de data scientists pour leurs entités stratégiques avec un objectif : améliorer sans cesse les méthodologies et techniques d'apprentissage des données pour gagner en qualité de décision.

Cette incessante escalade conduit à des conséquences diverses : la complexité des méthodes utilisées crée une barrière infranchissable entre les data scientists et les métiers, et un effet boite noire inévitable.

Par ailleurs, la donnée structurée en colonnes est considérée par beaucoup d’organisations comme la seule donnée exploitable. Pourtant, son exploitation n’est pas infinie et la qualité décisionnelle atteint vite son point culminant.

Et si l’amélioration pérenne de la qualité de nos décisions passait par l’exploitation d’autres données ? Et si les experts métier avaient à nouveau un rôle majeur à jouer ?

Les données textuelles : un puit sans fond ?

De nombreuses entreprises stockent méticuleusement leurs données textuelles, notamment pour assurer la traçabilité et la gouvernance de leurs différents process métiers. Cependant, dans de nombreux cas, leur traitement se résume à la lecture ponctuelle de documents fastidieux. Nous pouvons le dire crûment, les compagnies sont souvent assises sur des mines d’or, sans même en avoir conscience.

La plupart du temps, une partie de cet or se trouve en interne, notamment dans les données provenant du terrain. Par exemple, de plus en plus d’entreprises réalisent que stocker et analyser les conversations téléphoniques provenant de leurs centres d’appels leur permettrait d’être plus efficaces pour anticiper les problèmes liés à leurs produits, et détecter les clients en risque d’attrition.

Ce n’est pas tout, les entreprises peuvent trouver quelques pépites à l’extérieur de leur infrastructure. En effet, des volumes de données gargantuesques transitent chaque minute sur le web, à travers les médias sociaux. Des constructeurs ont observé que leurs clients avaient le réflexe de déclarer des défauts de conception produit sur les forums plutôt que de contacter directement le fabricant.

Cette pratique, appelée social listening, est d’ailleurs de plus en plus utilisée dans les services de renseignement policier, où le contenu des réseaux sociaux est analysé chaque jour pour identifier des radicalisations potentielles.

L’analyse des données : placer le métier au cœur de la décision

Initialement, la donnée textuelle était collectée par les entreprises pour permettre à ses experts de traiter plus efficacement leurs sujets, en comprenant, interprétant, et classifiant les informations utiles à la lecture. Néanmoins, lorsque l’objectif est de traiter des documents verbeux en masse, la limite des capacités humaines est vite atteinte : notre rythme de lecture excède rarement 250 mots par minute.  Cette contrainte empêche aujourd’hui les organisations de traiter efficacement leurs données textuelles. C’est là que le natural language processing (NLP) intervient. Il permet, grâce à l’utilisation d’algorithmes combinant statistiques et langage naturel, de traiter et synthétiser un corpus documentaire en quelques minutes.

Cependant, si vous faites l’exercice de taper NLP sur Google, vous risquez de déchanter, à moins d’être vous-même un data scientist en herbe. Ce monde-là semble réservé aux experts de la programmation, aux connaisseurs du traitement des données, plutôt qu’aux experts métier. Parler algorithmie ou text mining à ces publics d’utilisateurs revient à parler d’énergie atomique à une personne voulant simplement appuyer sur un interrupteur pour éclairer son salon.

Et si ces algorithmes étaient rendus accessibles pour un public d’utilisateurs finaux ? Cette question est bien évidemment rhétorique, puisque des éditeurs ont proposé une réponse claire, en concevant des logiciels qui permettent aux experts d’apporter leur connaissance métier sans contrainte technique. En quelques clics, l’utilisateur peut transmettre son intelligence aux algorithmes en révélant les informations et thématiques à extraire, et contribuer sensiblement à la pertinence des décisions.

La création de telles solutions a donc permis de briser le statut élitiste et marginal de l’analyse textuelle et de la replacer au service des métiers, à qui elle était initialement destinée.

Le traitement des données textuelles pourrait prendre un tournant décisif dans les années à venir et devenir une problématique clé dans l’amélioration de la prise de décisions. Il faut toutefois tenir compte de l’importance des métiers dans l’utilisation et l’amélioration de ces algorithmes, afin de rendre les modèles intelligents et efficients dans l’exploitation de ces données par l’entreprise.