Les limites du développement spécifique à l’ère du Big Data

Traditionnellement, face à la nécessité de faire un choix technologique, les entreprises hésitent entre deux options : prendre en charge elles-mêmes les développements ou recourir à des solutions packagées. Le Big Data les placent aujourd’hui devant la même interrogation.

Sur le terrain du Big Data, les rares entreprises qui s’engagent aujourd’hui dans la voie des développements spécifiques, le font soit par manque d’information (elles ne savent tout simplement pas qu’il existe des outils pré packagés), ou très sincèrement, à mon avis, en poursuivant une chimère. Elles font souvent l’erreur de jugement qu’un projet Big Data se résume à l’alimentation des données dans un cluster Hadoop. Elles imaginent que développer en interne une infrastructure dédiée à l’alimentation et l’analyse des Big Data permettra d’économiser 20% par rapport au recours à une solution packagée. Cependant, selon Gartner, la démarche aboutit à contrario à une augmentation de 200% des coûts de maintenance. Et ce n’est pas tout ! L’expérience accumulée depuis dix ans dans de nombreux projets d’intégration de toute nature, désormais en production, nous offre aujourd’hui la clairvoyance de mettre en relief les limites d’une telle approche. Dans les faits, elle expose l’entreprise à des risques de trois natures : opérationnelle, stratégique et économique.

Suivre le rythme des évolutions technologiques  

Hadoop est un framework open source, accessible sans coût de licence. Il peut être effectivement tentant de s’approprier la technologie en interne pour développer son infrastructure, en pensant économiser sur son budget. Pourtant, dans la réalité, cette stratégie est très souvent vouée à l’échec. D’une part, l’écosystème du Big Data est en évolution constante. Le taux de renouvellement des plateformes technologiques se fait à un rythme soutenu, à mesure qu’évoluent les besoins des entreprises. En quelques années, celles-ci sont passées de MapReduce à Storm, puis à Spark, et bientôt peut être à Apex. La vélocité d’innovation de l’écosystème Big Data représente en soit un challenge inédit pour la maintenance et pour ceux qui utilisent ces technologies. Si l’infrastructure mise en œuvre pour la collecte, la mise en qualité et la manipulation des données n’est pas elle-même pérenne et capable de garantir facilité de maintenance et évolutivité, les projets qui s’appuient dessus sont à risque. Ils devront tôt ou tard être abandonnés car obsolètes, supporter des coûts élevés de maintenance, ou réaliseront que leurs experts IT internes passent de plus en plus de temps sur des tâches n’apportant pas de valeur ajoutée.

D’autre part, la multiplication des sources de données accroît la complexité d’administration et de gouvernance. Une approche non outillée devient au mieux fastidieuse et laborieuse au pire impossible. Mais au-delà, la sécurité, la gouvernance (pour la traçabilité des mouvements et des transformations appliquées aux données), la mise en qualité des données, les tests, le déploiement, les éventuelles obligations réglementaires etc. sont autant de domaines qui bénéficient de l’utilisation de solutions packagées, pensées et conçues pour les cas d’usage les plus fréquents des entreprises. Notre industrie a inventé des outils pour aider les clients à sécuriser leurs projets, à garantir la bonne gouvernance et insuffler de la productivité dans le travail des équipes informatiques. Pourquoi ces bonnes pratiques essentielles à la réussite d’un projet IT disparaîtraient-elles dans le monde du Big Data ? 

D’autres risques économiques et stratégiques  

On l’a vu, les coûts de maintenance s’accroissent à mesure que les développements spécifiques se multiplient. De plus, les équipes de développements – déjà caractérisées par la rareté de leurs profils et donc leur coût élevé – sont mobilisées sur des tâches de maintenance et d’évolution et ne peuvent en conséquence participer aux nouveaux projets. L’innovation de l’entreprise est ainsi freinée alors que tout l’intérêt d’utiliser des solutions packagées réside au contraire dans l’agilité et la vitesse de développement. L’entreprise doit donc recruter de nouveaux développeurs pour initier de nouveaux projets, voire les externaliser ; ce qui pèse sur son budget informatique.

Enfin, comme expliqué plus haut, les développements spécifiques créent une importante dépendance vis-à-vis de spécialistes qualifiés sur ces technologies. Que se passera-t-il si ces derniers décident de quitter l’entreprise ? Et comment garantir la pérennité des systèmes stratégiques dans ce contexte ? 

Attention à la taille du projet  

Le développement spécifique reste une option dès lors qu’il s’agit de projets simples et très ciblés, qui nécessiteront peu de maintenance. Dans quelques rares cas, il peut s’avérer nécessaire s’il n’existe pas sur le marché de solution capable de répondre au besoin.

Mais dès que la taille du projet exige la collaboration de plusieurs intervenants au sein de l’entreprise, les solutions packagées offrent plus de garanties : un environnement de programmation graphique dont l’ergonomie a été pensée pour les utilisateurs métiers, la possibilité de réutiliser des éléments de développements précédents, un accompagnement par l’éditeur pour le paramétrage, etc. Et surtout, elles bénéficient de la profonde maîtrise des problématiques les plus courantes des entreprises par les éditeurs des solutions qui furent parmi les premières entreprises à adopter Hadoop.

Gartner, dans l’étude citée plus haut, dévoile qu’au final seulement 11% des entreprises restent des adeptes du développement spécifique. J’espère que ce retour d’expérience vous a aidé à comprendre pourquoi c’est le cas.