Stop au despotisme d'Excel ! Ayez un peu de courage !

Alors que les équipes de Microsoft, avec celles d'Hortonworks, développent une interface ODBC et une bibliothèque JavaScript pour Hadoop, il faut revenir sur le despotisme d’Excel dans le domaine du décisionnel. Un despotisme, dont le meilleur allié est la résistance des utilisateurs au changement.

Il est des plateformes et des solutions innovantes qui ne percent jamais, faute de pouvoir trouver leur public. Peu importe leur qualité, leurs fonctionnalités, leur stabilité et leurs avantages évidents, leur adoption se heurte à une contrainte immense : la résistance au changement.
Le domaine du décisionnel n’échappe pas à la règle, soumis qu’il est à la tyrannie du tableau Excel. Quelle que soit la solution décisionnelle mise en place ou l'éditeur d'outils de Business Intelligence commandité, les utilisateurs insistent pour qu’elle repose sur l’utilisation en entrée ou en sortie, d’Excel.
Tous les éditeurs le savent, dans le domaine informatique – et c’est valable pour un logiciel de retouche d’image, pour un système d’exploitation ou pour une suite bureautique - il suffit souvent de formater l’utilisateur à une solution pour qu’il vous reste à jamais fidèle.
Excel est entré dans les mœurs pour devenir quasiment indétrônable.
Depuis toujours les éditeurs de logiciels spécialisés tiers se sont donc pliés à cette exigence en fournissant les fonctionnalités – fussent-elles inadéquates ou dépassées - réclamées par leurs clients. Et c’est ainsi que cet outil continue de caracoler en tête des outils décisionnels alors même qu’on l’aurait cru dépassé en raison de son âge et de ses contingences.

Les limites d’Excel
Excel est probablement la « base de données » la plus utilisée en entreprise. C’est un outil incroyablement puissant, avec une myriade de fonctionnalités que pour la plupart, nous ne savons tout simplement pas utiliser.
Elle n’est pourtant pas exempte de limitations.
Elle n’est par exemple pas l’outil idéal en matière de rapports sur des données de production et n’est traditionnellement pas utilisée comme base de données par les applications. Excel pèche en matière de qualité et d’exactitudes des données pour une simple raison : il est soumis aux erreurs de la saisie humaine. Ce n’est pas le meilleur outil collaboratif qui soit (l’édition en mode partagé est difficile). Avant tout solution bureautique, l’interaction avec des solutions basées sur le web est limitée. Les fonctionnalités de reporting, ainsi que la sécurité et la performance sont par ailleurs limitées.
Le dernier inconvénient de ce tableur est qu’il repose sur des fichiers bureautiques, lesquels, comme chacun sait, se dupliquent, se copient, se collent, se multiplient jusqu’à faire en sorte qu’il existe plusieurs versions différentes d’une vérité qui devrait pourtant être unique … puisqu’elle concerne des données.
Excel n'a pas été conçu pour être une base de données ou un répertoire, il ne permet pas d’effectuer des analyses en temps réel, et ne permet même pas de sélectionner les données en fonction des besoins des utilisateurs. Malgré les efforts réalisés pour rapprocher Excel des analyses en temps réel, cette solution - faut-il le rappeler, créée en 1982 - est condamnée à rester un cran derrière ses concurrents du domaine de la Business Intelligence.

A l’heure du Big Data, le « good enough » n’est plus de mise
Et je suis sûr que certains, lisant ces lignes, se disent qu’après tout, pour leurs besoins, cela fait bien l’affaire. Alors oui, ce que l’on appelle depuis plusieurs années le « Good enough » a de bonnes raisons d’exister dans de nombreux domaines.
Mais je ne pense pas que le domaine de la donnée, puisse s’en satisfaire. Les données sont l’or du XXIème siècle. Aujourd’hui, on les récolte en masse. On appelle cela le Big Data. Demain, on ne voudra plus stocker les données, mais bien les étudier en temps réel, pour les valoriser immédiatement. Une fois leur valeur extraite, on pourra même écourter leur vie et leur conservation, s’épargnant d’exubérants achats d’espace de stockage.
Les récoltes de données qui peuvent être automatisées, le sont de plus en plus : les usages évoluent vite. Grâce aux progrès faits en matière de Machine to Machine, on observera bientôt des prises de décision automatisées, générées suite à des alertes en temps réel des bases de données. L’humain deviendra superviseur et son rôle consistera à modérer (depuis une application mobile ou une interface web) les prises de décision automatisées, sinon à les valider. De ce côté les technologies évoluent vite et on peut s’attendre à voir sous peu des mécanismes complexes se mettre à l’œuvre pour … simplifier les processus. Pour toutes les données qui requièrent une saisie manuelle, il est temps que les mœurs évoluent et que le monopole d’Excel s’amenuise.

Bien évidemment, cela signifie pour les décideurs une forme de prise de risque, des efforts de management pour combattre la résistance au changement, et un accompagnement attentif des utilisateurs. En un mot, cette évolution passera par la conduite du changement.
Qu’on ne s’y trompe pas : tous ceux pour qui Excel est réellement « good enough » et « cheap enough » n’on aucune raison de changer. C’est pour les autres, ceux pour lesquels la donnée crée effectivement de la valeur que le changement s’impose. Pour ces derniers, il est désormais temps de bénéficier de la puissance de l’analyse de gros volumes de données. Il est également temps que ces analyses soient accessibles, simplement, depuis un ordinateur portable ou encore un équipement mobile.
Tout cela est désormais à portée de main, mais encore faut-il que les entreprises encore sous le joug d’Excel acceptent de considérer les alternatives à la « vérité unique » que propose le célèbre tableur.