« Big Data » : il faudra certes de l'innovation mais surtout un vrai sens de l'adaptation

Les entreprises consommatrices de technologies observent, évaluent, s’interrogent sur la pertinence de chaque innovation significative. L’innovation est-elle une opportunité ou un risque ? Et comment intégrer de nouveaux composants dans les systèmes en place ?

Plutôt que de décliner une nouvelle définition du concept, je peux constater simplement qu’il y a un nouveau mot-clé majeur, un nouveau concept et de nouvelles solutions, qui renvoient tous les fournisseurs à leurs obligations d’innovation et d‘évolution permanentes.
Les entreprises consommatrices de technologies observent, évaluent, s’interrogent sur la pertinence de chaque innovation significative. L’innovation est elle une opportunité ou un risque ? Comment intégrer de nouveaux composants dans les systèmes en place ? Quelle valeur et à quelle échéance ?

Évolution permanente ou rupture technologique ? La croissance des volumes, les délais d’accès à l’information, la variété des sources d’informations ne sont pas des nouveautés à proprement parler mais il y a bien de nouvelles façons d’aborder ces enjeux. Ces nouvelles réponses marquent elles une rupture, une frontière ? Non, car cela voudrait dire qu’il n’y pas eu d’innovation depuis un moment et qu’aucune de ces tendances n’a été identifiée ou anticipée.
La gestion et l’analyse des données sont des domaines en pleine ébullition et depuis plusieurs années, l’arrivée de nouveaux acteurs, la percée de nouveaux produits et même les rachats d’entreprises établies font partie des symptômes de cette agitation. La Business Intelligence est devenue un domaine de spécialité à part entière dans la gestion de l’information et est aussi une discipline multiformes pour laquelle le terme classique de ‘BI’ ne suffit plus.
Multiformes, parce que les données structurées issues des systèmes opérationnelles ne suffisent plus. Multiformes, car il faut traiter indifféremment les besoins spécifiques de chaque département comme une vision consolidée au niveau de l’entreprise. Multiformes parce qu’il faut se soucier de ce qui est en train de se passer, de ce qui va se passer et de ce qui s’est passé il y a quelques heures, semaines, ou années. Aujourd’hui, il faut intégrer les informations produites par les hommes comme les données produites par les machines. Il faut fournir une information intelligible dans l’entreprise comme vers l’extérieur. Il faut aussi fournir des capacités nouvelles d’exploration des données aux personnes qui sauront y découvrir des informations utiles.
Et nous pourrions allonger ainsi longtemps la liste des sources d’informations, la liste des types d’informations, la liste des profils de consommateur de ces informations, la liste des exigences des uns et des autres. Pour notre part, nous parlons aujourd’hui du « décisionnel pour tous » .
Des solutions à la fois plus complètes et plus spécifiques
Les acteurs et fournisseurs de ce marché agissent et réagissent en continu face à ces évolutions. Les  grands éditeurs s’orientent vers des réponses plus larges, plus complètes, mieux intégrées et les spécialistes,  nouveaux acteurs ou bien établis, vont vers des approches mieux ciblées et plus spécialisées.
Pour l’infrastructure de gestion des données, il convient d'innover pour  « repousser les murs », perfectionner les solutions, les rendre plus rapides, meilleur marché et moins « encombrantes », tout en augmentant leurs capacités. Les fournisseurs informatiques ont amélioré l’ensemble des composants matériels, de la puissance des processeurs aux capacités mémoires. Le logiciel et les bases de données en particulier exploitent ces nouvelles capacités avec le stockage en colonne, la compression, le parallélisme et plus récemment le « in-memory ».
Une très large part des réponses spécifiques au concept « big data » sont des solutions centrées sur la distribution de données et les traitements massivement parallèles. Mais, à nouveau, il y a bien d’autres voies pour exploiter des données à grande ou moins grande échelle. Et comme souvent, alors qu’on veut opposer les technologies existantes aux dernières innovations, la vraie réponse est certainement dans la complémentarité des approches.
Cosmcore est une entreprise cliente de technologies dites « Big Data ». Leader mondial de la mesure d’audience sur Internet, Comscore manipule en continu, de par son activité de fournisseur d'informations comportementales, énormément de données de formats brutes dites ‘non structurées’. Pour les gérer, Comscore utilise des technologies dites «Big Data», notamment un framework  Hadoop MapReduce. Mais il ne fait pas tout avec cette technologie. Les importants volumes de données brutes ainsi traités lors de cette première étape sont ensuite basculés sous une forme structurée, dans des systèmes de bases de données dotés de capacités de stockage en colonne et de parallélisation des traitements pour y opérer des analyses complexes, le cœur de son activité.
A la diversité des besoins correspond une véritable diversité de solutions, la vague « Big Data » nous donne l’occasion de fixer notre attention sur l’infrastructure de gestion des données et c’est donc l’opportunité de revoir tous les choix possibles, de s’interroger sur les véritables besoins et de remettre en perspective les bonnes pratiques.