Etes-vous vraiment prêts pour l’ère du Big Data ?

Grand défi informatique de la décennie, le Big Data oblige les organisations à faire évoluer leurs architectures pour exploiter les données brutes en informations décisionnelles. Voici quelques conseils pour relever ce challenge hors normes.

Depuis le début de ma carrière dans l'industrie du logiciel dans les années 80, j'en ai vu des tendances se faire et se défaire. Mais l'ère du Big Data qui vient de s’ouvrir représente sans conteste la transformation la plus profonde (et la plus excitante !) que j'ai jamais vécue. Si vous regardez les entreprises qui cartonnent en ce moment, vous constaterez que la data est effectivement leur principal levier de croissance. Qu’il s’agisse de site de rencontres en ligne, de moteur de recherche, de site de e-commerce ou même d’opérateur de télécommunications traditionnel, tous savent qu’ils peuvent dégager des revenus importants de leur capacité à se connecter rapidement à de nouvelles sources de données, à les enrichir, puis les analyser pour prendre les meilleures décisions.

L'Internet des objets évolue rapidement

Tous ces objets intelligents, dotés de capteurs, vont générer des quantités de données inégalées et risquent de submerger les infrastructures de données que nous connaissons actuellement. Dans un avenir proche, pour préserver leur avantage compétitif, les entreprises vont devoir trouver les moyens de digérer ces flots de données sans cesse plus importants, provenant d'une multitude de sources différentes ; elles devront les analyser au moyen de techniques sophistiquées pour identifier des corrélations et isoler des modèles significatifs en temps quasi réel, puis elles s’appuieront sur les renseignements utiles ainsi obtenus pour invoquer des actions commerciales génératrices de valeur.

L’une des caractéristiques de cette ère du Big Data est que les données se créent numériquement et qu'elles alimentent des flux en permanence. Les données ne sont plus ces blocs monolithiques et centralisés, enfermés dans un environnement statique, que l’on met à jour occasionnellement au moyen de processus rigides. Désormais, il faut considérer les données comme des flux en mouvement permanent. Les logiciels ETL traditionnels et les architectures de BI statiques vont bientôt céder la place à des processus capables de s'adapter dynamiquement au contexte changeant du Big Data. Les innovations technologiques que nous observons dans le domaine des bases de données (NoSQL, analytique, graphe, etc. ; plateformes Big Data comme Hadoop, intégration dans le Cloud et analyses prévisionnelles avancées) ont toutes un rôle à jouer dans cette transition.

Pour accompagner ce changement radical, les architectes et les développeurs de logiciels vont devoir aligner leur vision sur celle des décideurs et autres acteurs de l’entreprise et innover, notamment en s’appuyant sur de nouvelles plateformes logicielles offrant des performances et des capacités de rétention des données extrêmes, de manière à pouvoir exécuter des analyses de données intensives, nécessitant d’énormes capacités de calculs.

La promesse de valoriser le Big Data grâce aux équipements informatiques actuels, dont la puissance de traitement est quasi illimitée et économique, devrait suffire à convaincre les chefs d'entreprise et les férus de technologies ; à condition, toutefois, que les logiciels soient à la hauteur. Malheureusement, de nombreuses piles de logiciels (y compris les plus réputées), fruits de dizaines d'années d'efforts de développement continu, ne sont clairement pas prêtes pour l'« Âge des données » et le coût de leur adaptation est tout simplement prohibitif.

Mais ce contexte d’effondrement des logiciels obsolètes sous le poids du Big Data est porteur d’une bonne nouvelle, celle d’un nouveau Far West : la ruée vers les nouvelles technologies logicielles conçues spécifiquement pour le Big Data. Aussi, même si toutes ces nouvelles technologies ne résisteront pas à l’épreuve du temps et si les acteurs historiques établis ne vont probablement pas tous disparaître, il est temps de s’intéresser aux innovations de la nouvelle génération.

Ceux qui tireront pleinement profit de la situation seront ceux qui innoveront en ayant compris que le paysage des données d’hier est déjà dépassé, et qu'il va falloir se doter d’une nouvelle génération de logiciels super-évolutifs pour survivre et prospérer à l'Âge de la Data.
C’est une véritable course qui est lancée pour transformer ces montagnes de données brutes en informations décisionnelles exploitables et en actions business. Les promesses de l'analytique avancée de nous aider à prendre rapidement de meilleures décisions nous amènent à délaisser l'« art » de prendre des décisions par nous-mêmes au profit de la « science » de l’analytique décisionnelle fondée sur les données.
Si votre entreprise est jeune et que vous en êtes à réfléchir à l’infrastructure des données, vous pourrez vous offrir le luxe d’adopter des architectures logicielles modernes dès le départ. En revanche, si votre entreprise est déjà bien établie, plusieurs possibilités existent pour tirer profit de l’existant et évoluer progressivement vers une infrastructure logicielle plus évolutive et économique.  

Vous vous demandez par où commencer ?

Je vous suggère de choisir un aspect de votre activité qui pourrait gagner en valeur ajoutée et générer des revenus grâce à des actions pilotées par les données, voire des actions entièrement automatisées. Une architecture agile peut vous permettre de capturer des données, de votre infrastructure existante ou de sources extérieures, et de les analyser pour prendre de meilleures décisions.

Voici quelques conseils pour se lancer :

  1. Identifiez une partie de votre activité qui pourrait bénéficier des contributions de la science décisionnelle, là où vous allez pouvoir exploiter une masse de données, et générer des modèles prévisionnels au moyen de techniques analytiques pour fonder vos décisions.
  2. Choisissez un logiciel standard ou ouvert qui fonctionne sur tout type d’équipement matériel, de manière à pouvoir profiter facilement de la puissance de calcul latente largement inexploitée de vos serveurs.
  3. Mettez la puissance du parallélisme de votre côté. Pensez à combiner des technologies qui offrent un maximum d’évolutivité et de capacité de montée en charge (SUSO, scale up-scale out) en toute flexibilité, de manière à pouvoir suivre durablement les augmentations de volumes des données et leur diversification.
  4. Pensez agilité, tant du design que de l’exécution. Vous allez choisir une technologie conçue pour fonctionner telle quelle en mode natif, mais il faut aussi qu’elle s’appuie sur une couche d’administration robuste et mature et qu’elle soit soutenue par un écosystème de partenaires qui la fassent évoluer rapidement et permettent de la mettre à jour facilement, suivant le rythme effréné des évolutions technologiques.
  5. Choisissez des architectures au rapport prix-performance avantageux. Évitez les architectures traditionnelles et les stratégies propriétaires, que vous ne pourrez faire évoluer qu’au prix de lourds investissements logiciels et matériels.

Pour survivre et prospérer à l’Âge de la Data, les entreprises vont avoir besoin d’architectures logicielles modernes afin de transformer le Big Data en valeur ajoutée. Pour les directeurs techniques et informatiques, c’est l’occasion d'apporter une contribution sans précédent à leur entreprise, en soutien au processus décisionnel.