Big Data & Data Center : le mariage de raison

Si les big data apportent une nouvelle dynamique et d’importantes perspectives de croissance aux entreprises, elles posent également de nouveaux défis technologiques.

Le terme « big data » traduit la nouvelle réalité du traitement de données, à l’ère des réseaux sociaux, de l’Internet des objets et de l’automatisation accrue de la collecte de données. Caractérisées par des volumes toujours plus importants (désormais, il se crée tous les deux ans autant de données que depuis le début de l’humanité [1]), par une grande variété de sources et de formats (les données issues des réseaux sociaux sont généralement non-structurées, au contraire de celles issues des bases de données de l’entreprise, ce qui complique leur analyse [2]) et par un besoin d’accéder très rapidement aux informations ou de les interpréter en temps réel (ce qu’illustre par exemple le trading haute fréquence [3] ou la santé connectée), les Big Data appelle les spécialistes de la donnée à reconsidérer leurs mode de prise en charge, de stockage et de traitement de leurs données.
Les applications d’exploitation des big data se multiplient dans tous les secteurs et tous les domaines : exploration pétrolière, maintenance préventive, connaissance client et CRM, santé et recherche, gestion des performances, etc. Et au-delà des programmes d’optimisation, vecteurs d’optimisation et de création de valeur, elles contribuent également au développement de nouveaux business models [4].
Le 21ème siècle sera définitivement le siècle de la donnée : le commerce, basé à l’origine sur une relation « one-to-one », puis avec l’avènement du marketing sur une relation « one-to-many », revient à ses fondamentaux d’origine en s’appuyant sur une relation personnalisée et multicanale.

Une évolution nécessaire des infrastructures

Cette nouvelle manière de traiter et stocker des volumes inédits de données remet en cause les pratiques traditionnelles. Les datawarehouses mis en place par les entreprises dans les années 90 ont toutes les peines du monde à répondre à leurs nouveaux besoins analytiques : de plus en plus sollicités, ils n’arrivent plus à fournir les performances nécessaires au stockage et au traitement de données de plus en plus nombreuses. Cet accroissement des volumes de données requiert une extension des frontières des infrastructures physiques, avec en corollaire une augmentation de leur consommation énergétique et de leurs capacités de refroidissement ; ainsi que des besoins croissants en termes de continuité de service, de sécurité et de sauvegarde. Cette évolution s’accompagne d’un contexte réglementaire de plus en plus strict, ce qui ajoute un niveau supplémentaire de complexité. Parallèlement, en termes techniques, le réseau par lequel transitent toutes ces données est également sur-sollicité, les temps de latence s’allongent et la qualité de service diminue.
Au final, une nouvelle infrastructure est nécessaire pour répondre à tous ces défis, mais les délais liés à sa conception, son développement, son déploiement et sa mise en œuvre sont tels que l’entreprise court le risque de mettre en place une infrastructure déjà obsolète…
De nombreuses entreprises ont vu dans le Cloud Computing une réponse efficace à ces défis. C’est le phénomène de la « gravité des données » où le centre de gravité des données bascule des systèmes informatiques d’entreprise vers les infrastructures en mode cloud. Mais pour des raisons de performances et d’administration du système d’information, elles se rendent compte aujourd’hui qu’elles ne peuvent résoudre toutes les problématiques par une migration totale vers le Cloud.

Le nouveau Graal des data centers : la proximité

Aujourd’hui, les opérateurs internationaux de data centers offrent une alternative qui mêle le meilleur des deux mondes : évolutivité, résilience, sécurité et performances. Avec un maillage mondial favorisant la proximité avec le client et l’ensemble de ses filiales, ils proposent des plates-formes entièrement dédiées au traitement des big data qui suppriment les goulets d’étranglement. A la pointe des technologies, ils offrent des infrastructures à l’état de l’art, une connectivité ultra-rapide avec les points d’interconnexion Internet (IX) et les services de Cloud, ainsi qu’un écosystème complet de partenaires proposant un large éventail d’outils et de solutions d’analyse afin d’exploiter les big data ; le tout pour un coût maîtrisable et prévisible, et des délais de déploiement accélérés.

La proximité est aujourd’hui l’un des points cruciaux mis en avant par les opérateurs [5]. Parce que les architectures de données actuelles évoluent sans cesse, il est essentiel de traiter les données sur place – certaines actions ne pouvant pas être effectuées de façon rentable sur site. Dans un futur proche, l’infrastructure informatique va devenir un système hybride composé de systèmes hérités internes et de fonctionnalités externalisées, qui doivent fonctionner ensemble grâce à un niveau d’intégration adapté. Des sociétés comme Facebook (Cassandra) ou NetApp [6] l’ont bien compris : leurs services reposent désormais sur des plates-formes spécifiques, développées par des opérateurs de data center, qui leur permettent de tirer toute la valeur de leurs big data. Avec des données qui ne cessent de croître en volume, rapidité et diversité, l’immobilisme n’est plus une option.