Big data : comment optimiser la gestion des gros volumes de données ?

Trop fréquemment, l’entreprise renferme des données dont elle ignore l’existence ou la localisation. Comment, dans ces conditions, les maîtriser, les protéger et exploiter leur potentiel ? Et faire face à leur augmentation dans le cadre du développement de l’entreprise ?

Classer les données pour accroître leur visibilité

La plupart des administrateurs informatiques mettent en place des mesures de protection des données dont ils ont connaissance. Mais, bien souvent, leur entreprise renferme des données, terminaux et systèmes dont ils ignorent jusqu’à l’existence. En effet, l’entreprise du XXIe siècle, étendue et distribuée, partage des données précieuses avec ses fournisseurs, partenaires et clients, via diverses plates-formes. Une part d’inconnu qui évolue rapidement, au gré de la multiplication des terminaux et plates-formes, exposant les entreprises à de nouveaux risques. Heureusement, de simples évaluations complètes et régulières de l’environnement de sécurité suffisent généralement à identifier les failles à combler.
Pourtant, un grand nombre d’entreprises ne prennent même pas cette peine, se satisfaisant du
statu quo et rechignant à dépenser dans ce qu’elles jugent secondaire. Dans le meilleur des cas, elles se trompent sur les économies réalisées, dans le pire, une infraction survient qui leur coûte bien plus que ce qu’aurait exigé un solide programme de sécurité et qui mobilise des ressources précieuses, puisque les techniciens informatiques vont devoir consacrer du temps à trouver des solutions ponctuelles et autres rafistolages ou à prévenir d’éventuels sinistres.
D’où l’importance de détecter et d’identifier toutes les données disponibles dans l’entreprise, qu’elles soient simplement stockées ou activement utilisées. Les petits serveurs de bureau et les ordinateurs portables sont un parfait exemple des sources de données dont l’entreprise ignore l’existence. C’est en identifiant les données sensibles, leur lieu de stockage et leur mode de transit que l’on peut se conformer aux exigences de sécurité, réduire les risques de perte de données et optimiser les processus et applications qui gèrent ces données. Aucune entreprise ne peut prétendre à un programme de sécurité exhaustif tant qu’elle ignore les risques et l’origine des menaces.

Pour bien gérer de gros volumes de données, les entreprises doivent savoir :

  • Où sont localisées ces données : l’objectif est de déterminer si ces données sont inactives (stockées, dans des fichiers partagés, sur des postes de travail, etc.) ou en transit (dans des e-mails, fichiers transférés, messages instantanés, etc.)
  • De quel type de données il s’agit et à qui elles appartiennent : la nature des données et l’identité de leur propriétaire détermineront les procédures/normes de sécurité nécessaires à leur protection (ex. listings de clients, R&D, numéros de sécurité sociale, cartes de crédit, renseignements médicaux, CV, rapports financiers, etc.).

Et enfin :

  • Comment sont utilisées ces données et quel est leur degré d’importance : les entreprises doivent connaître le lien entre leurs données et leurs processus métier, savoir quelle utilisation en est faite (utilisation très fréquente ou rare, uniquement à des fins de rétention, etc.) et être à même d’évaluer leur degré de sensibilité (règles de sécurité).

Gagner en flexibilité grâce aux services Cloud
La classification des données présente un autre intérêt, celui de mieux gérer le développement de l’entreprise. A l’inverse, l’augmentation incontrôlée des volumes de données grève progressivement l’agilité des entreprises, dont l’infrastructure finit par ne plus satisfaire les attentes et qui se retrouvent forcées à intégrer de nouveaux serveurs aux configurations disparates. Il en résulte un environnement peu évolutif sur le long terme, avec des données dispersées un peu partout. En outre, cette architecture non extensible empêche les entreprises d’exploiter leurs données au service de la satisfaction des objectifs stratégiques.
Bien entendu, dans la réalité, les départements informatiques ne se développent pas au même rythme que le Big Data. Et la stratégie de toujours plus d’investissements n’est de toute façon pas judicieuse pour gérer le Big Data, surtout dans le contexte actuel de réduction du coût de possession et d’optimisation du retour sur investissement.
Trouver des réponses aux questions précédentes peut déjà aider les entreprises à déterminer comment l’infrastructure informatique pourra répondre véritablement à leurs besoins stratégiques. Mais un modèle informatique apparaît de plus en plus comme LA solution aux problèmes de gestion du Big Data. Il s’agit du Cloud Computing (public, privé ou hybride, selon les besoins), promettant économies d’échelle et gains de flexibilité.
Facturé à l’utilisation, le Cloud Computing réduit les dépenses d’investissements dans le matériel, les logiciels et les services. Généralement accessibles sans investissements de départ ou pour un investissement minime, les ressources Cloud sont disponibles sous forme de contrats résiliables à tout moment, éliminant ainsi les risques de non-rentabilisation. Dans la plupart des cas, seuls les coûts d’exploitation sont ainsi assumés par les entreprises : un must à l’heure de la pénurie généralisée de capitaux.
Les services Cloud actuels doivent également garantir de hauts niveaux de disponibilité pour se conformer aux Engagements de Qualité de Services les plus stricts. Ils s’accompagnent depuis peu d’options puissantes permettant aux entreprises de déplacer facilement leurs charges de travail entre leur datacenter et le Cloud en fonction de leurs contraintes de capacité et de la stratégie du moment. Les meilleurs fournisseurs de services Cloud vont plus loin dans la démarche de transparence en permettant aux entreprises clientes d’accéder physiquement à leurs données dans le datacenter du fournisseur Cloud. Ce sentiment de maîtrise rassure les DSI puisqu’ils savent exactement où se trouvent leurs données et comment elles sont gérées.
Contre toute attente, le principal atout du modèle de Cloud Computing réside probablement dans sa sécurité, souvent renforcée par rapport à ce que les entreprises d’aujourd’hui peuvent garantir. Les fournisseurs Cloud disposent d’équipes de sécurité spécialement formées, d’un environnement robuste et de protocoles de sécurité systématiquement à jour des menaces les plus récentes, des atouts avec lesquels la plupart des entreprises informatiques ne peuvent rivaliser.
IDC estime que, d’ici à 2015, 10 % de l’ensemble des informations seront gérées dans un Cloud et près de 20 % transiteront par des fournisseurs de services de Cloud Computing.
Autrement dit, à un moment ou un autre de son cycle de vie, entre le moment où il est créé et sa destruction finale, tout octet de données sera stocké ou traité dans un Cloud.
L’idée de stocker le Big Data dans le Cloud n’est pas une tendance en devenir, c’est déjà le cas !

Autour du même sujet