Stimuler la croissance des entreprises grâce au big data
Tout au long de 2012, le big data a été à deux doigts de devenir un terme aussi galvaudé et imprécis que ne l'a été « le cloud » en 2011. Si on fait abstraction du buzz marketing, on constate que le big data prend de plus en plus l'allure d'opportunité pour recueillir des informations utiles afin de stimuler la croissance et favoriser la rentabilité.
C'est d'ailleurs l'idée reflétée dans les prévisions du cabinet Gartner, selon lequel en 2013, le big data devrait générer 34 milliards de dollars de dépenses mondiales en informatique. Quant à EMC et IDC, ils estiment que l'univers du numérique devrait s'accroître jusqu'à 40 zettaoctets (ZB) d'ici 2020, une prévision supérieure aux précédentes de 5 Zo, et qui serait synonyme d'une croissance multipliée par 50 depuis le début de l'année 2010.
Économies d'échelle
Le fait est que
dans le monde entier, nous générons actuellement des données à un rythme de
plus en plus élevé, et cette tendance va en s'accélérant. Des sources et des
quantités de plus en plus importantes de données sont créées, permettant aux
entreprises de profiter de davantage d'informations et de se faire de
meilleures opinions sur ce qui fonctionne ou pas et sur les éléments à privilégier
pour l'avenir.
Le résultat
souhaité par les entreprises est (à juste titre), de dégager un avantage
concurrentiel malgré un contexte économique encore difficile. Imaginons, par
exemple, qu'une entreprise augmente la fréquence de ses rapports de vente ou
sur ses stocks (d'une fois par mois à une fois par semaine ou par jour), ou qu’elle
offre la possibilité à tous les employés
concernés (même les utilisateurs
d'appareils mobiles) de générer des rapports en temps réel et en permanence.
Cela équivaudrait à davantage de flexibilité, une meilleure capacité de génération
d'informations et une plus grande réactivité : c'est le genre d'avantages
dont il ne faut pas sous-estimer la valeur.
Le challenge
reste de pouvoir réellement stocker, analyser et utiliser toutes ces données,
ce qui nécessite des changements sur deux plans : les mentalités et la réalité.
Changement d'état d'esprit
La plupart des entreprises génèrent d'énormes quantités de données qui ne demandent qu'à être exploitées. Les entreprises doivent désormais se focaliser sur les informations existantes, qui se trouvent souvent dans d'énormes bases de données étroitement surveillées par les départements informatiques, et les libérer.
Les services informatiques des entreprises doivent comprendre que l'intégration de données est à la fois un phénomène contemporain et une procédure qui a de tout temps été effectuée par les utilisateurs internes. Les « experts en logique d'affaires », ces individus responsables des tableurs et des calculs intensifs, génèrent des données à l'aide de systèmes de Business Intelligence et se servent de leur propre expérience afin de créer des outils pour les aider à opérer leurs calculs. Il est important aujourd'hui qu'une évolution ait lieu au niveau des modes de pensée de ces différents acteurs, afin de comprendre que leur mission s'oriente vers la génération de flux de données au profit de l'ensemble de l'entreprise.
Changement technologique
Tout d'abord, il
existe un besoin d'interfaçage de ces données afin de pouvoir les combiner à d'autres
et de générer ainsi des informations donnant une représentation holistique d’un phénomène. Mais pour se
préparer à produire de nouvelles données en proportions plus importantes et
plus rapidement, il faut adopter une nouvelle approche en matière de conception
de services informatiques, une approche
quasi industrielle, permettant de concevoir une plateforme évolutive et
résistante pour l'avenir, et pouvant prendre de l'envergure et grandir au
rythme des quantités sans cesse croissantes de statistiques et de chiffres.
Le SDDC (Software
Defined Datacenter), concept qui a commencé à prendre de l'envergure au cours
de la seconde moitié de l'année 2012, jouera un rôle essentiel dans cette
nouvelle approche. Ce concept réunit les technologies jusque-là cloisonnées et
liées à des couches matérielles spécifiques, et ouvre la voie vers le
traitement de l'ensemble des opérations de façon logicielle. Résultat :
une infrastructure fluide et agile, créée et contrôlée par logiciel.
La virtualisation
du traitement est la première étape vers le SDDC, mais elle doit être
accompagnée de l'adoption de la virtualisation stockage et de réseau. Les entreprises pourront alors adopter des
technologies de big data telles que Hadoop, récemment virtualisée dans le cadre
du projet Serengeti Open Source, et conçue pour permettre aux entreprises
d'exploiter d'énormes quantités de données et d'en dégager des avantages
concurrentiels.
Conclusions
Au-delà du battage
médiatique, il est évident que le big data représente une énorme opportunité
pour permettre aux entreprises d'améliorer leurs processus. Quelle qu'en soit
la taille ou son activité, toute entreprise cherche à obtenir davantage de
données et d'informations et à profiter de meilleures capacités à effectuer des
prévisions et des prises de décision.
Cependant, il est pour cela nécessaire
d'acquérir de nouvelles technologies et architectures plus évolutives, car les
infrastructures existantes ne sont pas en mesure de prendre en charge de tels
besoins.