Big data : comment optimiser la gestion des gros volumes de données ?
Trop fréquemment, l’entreprise renferme des données dont elle ignore l’existence ou la localisation. Comment, dans ces conditions, les maîtriser, les protéger et exploiter leur potentiel ? Et faire face à leur augmentation dans le cadre du développement de l’entreprise ?
Classer les données pour accroître leur visibilité
La plupart des administrateurs informatiques
mettent en place des mesures de protection des données dont ils ont
connaissance. Mais, bien souvent, leur entreprise renferme des données,
terminaux et systèmes dont ils ignorent jusqu’à l’existence. En effet,
l’entreprise du XXIe siècle, étendue et distribuée, partage des données
précieuses avec ses fournisseurs, partenaires et clients, via diverses plates-formes.
Une part d’inconnu qui évolue rapidement, au gré de la multiplication des
terminaux et plates-formes, exposant les entreprises à de nouveaux risques.
Heureusement, de simples évaluations complètes et régulières de l’environnement
de sécurité suffisent généralement à identifier les failles à combler.
Pourtant,
un grand nombre d’entreprises ne prennent même pas cette peine, se satisfaisant
du statu quo et rechignant à dépenser dans ce qu’elles jugent
secondaire. Dans le meilleur des cas, elles se trompent sur les économies
réalisées, dans le pire, une infraction survient qui leur coûte bien plus que
ce qu’aurait exigé un solide programme de sécurité et qui mobilise des
ressources précieuses, puisque les techniciens informatiques vont devoir consacrer
du temps à trouver des solutions ponctuelles et autres rafistolages ou à
prévenir d’éventuels sinistres.
D’où
l’importance de détecter et d’identifier toutes les données disponibles dans
l’entreprise, qu’elles soient simplement stockées ou activement utilisées. Les
petits serveurs de bureau et les ordinateurs portables sont un parfait exemple
des sources de données dont l’entreprise ignore l’existence. C’est en
identifiant les données sensibles, leur lieu de stockage et leur mode de
transit que l’on peut se conformer aux exigences de sécurité, réduire les
risques de perte de données et optimiser les processus et applications qui
gèrent ces données. Aucune entreprise ne peut prétendre à un programme de
sécurité exhaustif tant qu’elle ignore les risques et l’origine des menaces.
Pour bien gérer de gros volumes de données, les entreprises doivent savoir :
- Où sont localisées ces données : l’objectif est de déterminer si ces données sont inactives (stockées, dans des fichiers partagés, sur des postes de travail, etc.) ou en transit (dans des e-mails, fichiers transférés, messages instantanés, etc.)
- De quel type de données il s’agit et à qui elles appartiennent : la nature des données et l’identité de leur propriétaire détermineront les procédures/normes de sécurité nécessaires à leur protection (ex. listings de clients, R&D, numéros de sécurité sociale, cartes de crédit, renseignements médicaux, CV, rapports financiers, etc.).
Et enfin :
- Comment sont utilisées ces données et quel est leur degré d’importance : les entreprises doivent connaître le lien entre leurs données et leurs processus métier, savoir quelle utilisation en est faite (utilisation très fréquente ou rare, uniquement à des fins de rétention, etc.) et être à même d’évaluer leur degré de sensibilité (règles de sécurité).
Gagner
en flexibilité grâce aux services Cloud
La classification des données présente un
autre intérêt, celui de mieux gérer le développement de l’entreprise. A
l’inverse, l’augmentation incontrôlée des volumes de données grève
progressivement l’agilité des entreprises, dont l’infrastructure finit par ne
plus satisfaire les attentes et qui se retrouvent forcées à intégrer de
nouveaux serveurs aux configurations disparates. Il en résulte un environnement
peu évolutif sur le long terme, avec des données dispersées un peu partout. En
outre, cette architecture non extensible empêche les entreprises d’exploiter
leurs données au service de la satisfaction des objectifs stratégiques.
Bien entendu, dans la réalité, les
départements informatiques ne se développent pas au même rythme que le Big
Data. Et la stratégie de toujours plus d’investissements n’est de toute façon
pas judicieuse pour gérer le Big Data, surtout dans le contexte actuel de
réduction du coût de possession et d’optimisation du retour sur investissement.
Trouver
des réponses aux questions précédentes peut déjà aider les entreprises à
déterminer comment l’infrastructure informatique pourra répondre véritablement
à leurs besoins stratégiques. Mais un modèle informatique apparaît de plus en
plus comme LA solution aux problèmes de gestion du Big Data. Il s’agit du Cloud
Computing (public, privé ou hybride, selon les besoins), promettant économies
d’échelle et gains de flexibilité.
Facturé
à l’utilisation, le Cloud Computing réduit les dépenses d’investissements dans
le matériel, les logiciels et les services. Généralement accessibles sans
investissements de départ ou pour un investissement minime, les ressources
Cloud sont disponibles sous forme de contrats résiliables à tout moment,
éliminant ainsi les risques de non-rentabilisation. Dans la plupart des cas,
seuls les coûts d’exploitation sont ainsi assumés par les entreprises : un
must à l’heure de la pénurie généralisée de capitaux.
Les
services Cloud actuels doivent également garantir de hauts niveaux de
disponibilité pour se conformer aux Engagements de Qualité de Services les plus
stricts. Ils s’accompagnent depuis peu d’options puissantes permettant aux
entreprises de déplacer facilement leurs charges de travail entre leur
datacenter et le Cloud en fonction de leurs contraintes de capacité et de la
stratégie du moment. Les meilleurs fournisseurs de services Cloud vont plus
loin dans la démarche de transparence en permettant aux entreprises clientes
d’accéder physiquement à leurs données dans le datacenter du fournisseur Cloud.
Ce sentiment de maîtrise rassure les DSI puisqu’ils savent exactement où se
trouvent leurs données et comment elles sont gérées.
Contre toute attente, le principal atout du
modèle de Cloud Computing réside probablement dans sa sécurité, souvent
renforcée par rapport à ce que les entreprises d’aujourd’hui peuvent garantir.
Les fournisseurs Cloud disposent d’équipes de sécurité spécialement formées,
d’un environnement robuste et de protocoles de sécurité systématiquement à jour
des menaces les plus récentes, des atouts avec lesquels la plupart des
entreprises informatiques ne peuvent rivaliser.
IDC
estime que, d’ici à 2015, 10 % de l’ensemble des informations seront
gérées dans un Cloud et près de 20 % transiteront par des fournisseurs de
services de Cloud Computing.
Autrement dit, à un moment ou un autre de
son cycle de vie, entre le moment où il est créé et sa destruction finale, tout
octet de données sera stocké ou traité dans un Cloud.
L’idée de stocker le Big
Data dans le Cloud n’est pas une tendance en devenir, c’est déjà le cas !