Reporting et analytique : quatre tendances qui façonneront 2014
Pour vous permettre de réussir cette année, voici les tendances à suivre pour optimiser vos opérations de reporting et d'analytique.
Je décris ce que vont être les quatre tendances de 2014 en ce qui concerne le reporting et l’analytique :- la formule « capteurs + logiciels » changera la face du monde ;
- le déploiement en mode cloud transformera le modèle de consommation analytique ;
- les véritables perspectives du phénomène « Big Data » ne seront plus limitées que par l’imagination des utilisateurs,
- et enfin l’innovation technologique orientée métier créera une rupture et favorisera la croissance.
1. Oubliez l’analyse des opinions*, la formule « capteurs + logiciels » changera la face du monde
Le battage médiatique autour du phénomène « Big Data » s’est articulé, pour l’essentiel, autour des réseaux sociaux et de l’analyse des opinions*, dans le souci de se rapprocher du client et de mieux cerner le marché sur lequel rivalise l’entreprise. Si cet objectif est légitime, relativement peu d’entreprises se découvriront pourtant les compétences et les modèles de données qui sauront faire la différence et leur permettre de tirer leur épingle du jeu.
Mieux vaudrait cibler « l’Internet des objets », pour le pouvoir
de transformation qu’il véhicule. Chaque jour, j’observe des exemples toujours
plus convaincants de capteurs et de logiciels à l’œuvre. Je préfère les
qualifier de « capteurs + logiciels », formule audacieuse davantage en
phase avec la valeur ajoutée, extrêmement concrète, qui peut découler de la
mesure, du suivi et de la gestion optimisée des vastes quantités de données
générées par les capteurs. Pourquoi est-ce important en 2014 ? Premièrement,
la technologie des capteurs se caractérise aujourd’hui par son moindre coût (une
« radio-étiquette », par exemple, coûte à peine 50 centimes, d’après
ce rapport – et procure davantage
de points de données).
Deuxièmement, les technologies d’analyse et de stockage
mises en œuvre pour analyser et collecter ces données sont extrêmement abordables et
accessibles (souvent déclinées en édition Open Source). Enfin, ces données
issues de capteurs se prêtent à l’analyse de corrélation ; en ne se
cantonnant plus strictement aux relations de causalité, il y a fort à parier
qu’elles recèleront davantage de valeur également.
D’après les prévisions des
analystes, rendre les objets
« plus intelligents » en les connectant à Internet offre de
gigantesques perspectives, sur le plan économique notamment. Alors, pourquoi
limiter l’analyse aux paroles et attitudes d’un groupe relativement actif (réseaux
sociaux et analyse des opinions*) quand il est possible d’analyser le
comportement d’une population bien plus large (données de capteurs) ? Je
pense qu’une révolution silencieuse est d’ores et déjà en marche. En 2014,
la formule « capteurs + logiciels » changera la face du monde.
2. Le déploiement en mode cloud transformera le modèle de consommation
analytique
Du fait de la recrudescence des données émanant du cloud, le recours
à des services d’analyse et de gestion de données en mode cloud aura, lui
aussi, le vent en poupe. J’ai déjà consacré
certains articles à une toute
nouvelle génération de logiciels, de type plate-forme et middleware, qui se
feront jour pour satisfaire ces impératifs de calcul dans le cloud d’un nouveau
genre, axés sur la souplesse, au sein des entreprises de toute taille. Au niveau
de cette couche logicielle généralement, des modèles de
tarification à la consommation et d’allocation évolutive des ressources seront choisis
pour mieux faire correspondre les modèles de consommation aux frais acquittés. Cette
doctrine économique optimisée favorisera, à son tour, la généralisation de
logiciels de type plate-forme et middleware, pour le reporting et l’analyse
notamment, comme jamais encore auparavant.
De plus, le déploiement en mode cloud augure d’un niveau de simplicité et
de convivialité (services orientés clients) qui met au défi la précédente
génération de logiciels, marquant le début d’une consommation plus soutenue
d’analyses par des entreprises de toute taille. En résumé, le déploiement dans
le cloud est devenu un élément clé de la quête d’universalité dans l’analyse –
surtout lorsque cette dernière s’opère de manière modulaire via les applications
web utilisées au quotidien.
D’après Nucleus Research, « À mesure que les entreprises s’approprient pleinement les fonctionnalités
analytiques aujourd’hui proposées avec les formules de tarification à la
consommation et sur abonnement, elles continueront à tirer profit des
évolutions du marché avant leurs homologues et à bénéficier, pour chaque dollar
investi dans l’analyse, d’un retour sur investissement moyen de 10,66 dollars. »
En 2014, le déploiement en mode cloud transformera le modèle de consommation
analytique.
3. De l’assujettissement à un schéma à l’assujettissement à des idées, les
véritables perspectives du phénomène « Big Data »
Naguère (et encore trop souvent aujourd’hui), nous collections uniquement
les données que nous pouvions nous permettre de stocker, et auxquelles nous
réservions un usage précis. Programmés, en quelque sorte, pour réduire les
données à leur plus simple expression, nous étions donc (et sommes encore)
assujettis à un schéma. Or, aujourd’hui, nous devons connaître à l’avance ce à
quoi nous destinons les données recueillies. Cette façon de voir les choses
laisse peu de place, voire aucune, à la plus-value latente que peut procurer à
l’avenir un jeu de données. En physique, nous admettons que l’énergie possède
une valeur immédiate (cinétique) et une valeur future (latente). Pourquoi en
serait-il autrement des données ?
Du fait de la baisse des coûts et de l’augmentation exponentielle des
capacités technologiques, nous sommes à présent en mesure de stocker et
d’exploiter LA TOTALITÉ des données, et non plus uniquement certaines d’entre elles. Mais
peut-être ne mesurons-nous pas toujours la valeur de celles que nous collectons.
Leur valeur latente deviendra toujours plus manifeste d’année en année, et les
technologies normaliseront cet état de fait. Les véritables perspectives
offertes par le phénomène « Big Data » reposent sur la force de
l’imagination dont nous faisons preuve pour exploiter ces données, et mettre au
jour de nouvelles corrélations et sources de valeur là où cela aurait été
impossible auparavant.
Il est aujourd’hui plus aisé de libérer le potentiel de ces nouvelles
sources de valeur dans un monde toujours plus numérisé ; pour preuve, nous
exploitons régulièrement de nouveaux types de données : géolocalisation, mises
à jour de capteurs, flux de clics, vidéos et images, documents et formulaires,
etc. Il y a encore quelques années, quasiment aucun n’aurait été assimilé à des
« données ». La généralisation de ces nouveaux types de données et la
recherche de corrélations susceptibles d’avoir des répercussions positives sur
l’entreprise auront pour effet de déplacer les contraintes, et ce sont la
qualité et la quantité de nos idées qui importeront. En 2014, nous ne serons
plus assujettis à un schéma, mais à des idées ; la valeur ajoutée, elle,
sera à retirer dans le phénomène « Big Data ».
4. En quête de rentabilité; l’innovation
technologique orientée métier créera une rupture et favorisera la croissance
Exploiter davantage de données, c’est favoriser l’innovation. Or, l’innovation
est à même de transformer les processus, les produits, les services et les
ressources humaines. Notre nouvelle capacité à analyser et à extraire des
tendances dissimulées au sein de gigantesques volumes de données encouragera une
nouvelle génération d’innovations technologiques orientées métier. Du fait de
cette tendance, la structure informatique doit trouver de nouveaux modes
d’intégration et de collaboration au sein de l’entreprise, en devenant un
facilitateur d’innovations orientées métier. Cette collaboration est plus
importante que jamais puisque la technologie constitue à présent le nouveau
champ de bataille économique, tous secteurs d’activité et toutes entités
confondus. Même les dernières prévisions de Gartner font la part belle
au thème de la révolution industrielle numérique et regorgent de mots d’ordre à
l’intention des DSI et de leurs structures informatiques, sommés de jouer un
rôle moteur ou de faire place nette. Le monde a décidément bien changé.
Toutes les entreprises revêtent à présent une dimension technologique. Chacune
d’elles n’a d’autre choix que de mettre à profit la technologie pour tirer son
épingle du jeu et se forger un avantage compétitif. Cette tendance se vérifie au
sein des entreprises de premier plan, tous secteurs d’activité confondus, dont
les divisions contrôlent d’ores et déjà 61 % des dépenses technologiques, d’après IDC. Heureusement, les
obstacles technologiques à l’entrée n’ont jamais été aussi bas. Les structures
de toutes tailles ont aujourd’hui accès, à un coût abordable, à des outils
d’entreprise performants ; elles sont ainsi capables de lutter à armes
égales voire, pour les plus petites, de rivaliser avec les poids lourds (parfois
même plus efficacement du fait de leur agilité). Prenons l’exemple d’AirIT, qui contribue à
faire de chaque compagnie aérienne un centre de données orienté technologies, régi
par des indicateurs métier pertinents qui, à leur tour, sont sources de
simplification opérationnelle et d’économies.
Les grandes entreprises de renom miseront ouvertement sur leur personnel,
leurs compétences et leur organisation pour maximiser les utilisations
technologiques inédites – créant une réaction en chaîne qui influera sur la
gestion de la formation et du personnel à tous les échelons. Même les organisations
militaires admettent que l’acquisition de compétences et d’une expertise en
données et en analyse demeureront indissociables de la promotion personnelle.
Le risque, c’est qu’une concentration accrue de savoir-faire technologique
créera des « nantis » et des « pauvres » dans le domaine
numérique, laquelle génèrera une véritable spirale infernale pour les
« lanternes rouges ».
Enfin, pour que l’innovation technologique orientée métier puisse
véritablement prospérer, encore faut-il qu’un plus grand nombre de
professionnels (comparativement à aujourd’hui) aient accès aux quantités de
données et aux analyses appropriées (ni trop, ni trop peu), en temps voulus, afin
de faire de chacun un analyste et un décideur plus qualifié (indépendamment de
son niveau de qualifications, de sa fonction ou de ses compétences). En 2014, l’analytique
se pratiquera, plutôt qu’elle ne se rêvera, et la quête de
décisionnel au sein des applications et processus métier utilisés au
quotidien sera l’un des moteurs de l’innovation technologique orientée métier.