Reporting et analytique : quatre tendances qui façonneront 2014

Pour vous permettre de réussir cette année, voici les tendances à suivre pour optimiser vos opérations de reporting et d'analytique.

Je décris ce que vont être les quatre tendances de 2014 en ce qui concerne le reporting et l’analytique :
  • la formule « capteurs + logiciels » changera la face du monde ;
  • le déploiement en mode cloud transformera le modèle de consommation analytique ;
  • les véritables perspectives du phénomène « Big Data » ne seront plus limitées que par l’imagination des utilisateurs,
  • et enfin l’innovation technologique orientée métier créera une rupture et favorisera la croissance.

1. Oubliez l’analyse des opinions*, la formule « capteurs + logiciels » changera la face du monde

Le battage médiatique autour du phénomène « Big Data » s’est articulé, pour l’essentiel, autour des réseaux sociaux et de l’analyse des opinions*, dans le souci de se rapprocher du client et de mieux cerner le marché sur lequel rivalise l’entreprise. Si cet objectif est légitime, relativement peu d’entreprises se découvriront pourtant les compétences et les modèles de données qui sauront faire la différence et leur permettre de tirer leur épingle du jeu.

Mieux vaudrait cibler « l’Internet des objets », pour le pouvoir de transformation qu’il véhicule. Chaque jour, j’observe des exemples toujours plus convaincants de capteurs et de logiciels à l’œuvre. Je préfère les qualifier de « capteurs + logiciels », formule audacieuse davantage en phase avec la valeur ajoutée, extrêmement concrète, qui peut découler de la mesure, du suivi et de la gestion optimisée des vastes quantités de données générées par les capteurs. Pourquoi est-ce important en 2014 ? Premièrement, la technologie des capteurs se caractérise aujourd’hui par son moindre coût (une « radio-étiquette », par exemple, coûte à peine 50 centimes, d’après ce rapport – et procure davantage de points de données).
Deuxièmement, les technologies d’analyse et de stockage mises en
œuvre pour analyser et collecter ces données sont extrêmement abordables et accessibles (souvent déclinées en édition Open Source). Enfin, ces données issues de capteurs se prêtent à l’analyse de corrélation ; en ne se cantonnant plus strictement aux relations de causalité, il y a fort à parier qu’elles recèleront davantage de valeur également.
D’après
les prévisions des analystes, rendre les objets « plus intelligents » en les connectant à Internet offre de gigantesques perspectives, sur le plan économique notamment. Alors, pourquoi limiter l’analyse aux paroles et attitudes d’un groupe relativement actif (réseaux sociaux et analyse des opinions*) quand il est possible d’analyser le comportement d’une population bien plus large (données de capteurs) ? Je pense qu’une révolution silencieuse est d’ores et déjà en marche. En 2014, la formule « capteurs + logiciels » changera la face du monde.

2. Le déploiement en mode cloud transformera le modèle de consommation analytique

Du fait de la recrudescence des données émanant du cloud, le recours à des services d’analyse et de gestion de données en mode cloud aura, lui aussi, le vent en poupe. J’ai déjà consacré certains articles à une toute nouvelle génération de logiciels, de type plate-forme et middleware, qui se feront jour pour satisfaire ces impératifs de calcul dans le cloud d’un nouveau genre, axés sur la souplesse, au sein des entreprises de toute taille. Au niveau de cette couche logicielle généralement, des modèles de tarification à la consommation et d’allocation évolutive des ressources seront choisis pour mieux faire correspondre les modèles de consommation aux frais acquittés. Cette doctrine économique optimisée favorisera, à son tour, la généralisation de logiciels de type plate-forme et middleware, pour le reporting et l’analyse notamment, comme jamais encore auparavant.
De plus, le déploiement en mode cloud augure d’un niveau de simplicité et de convivialité (services orientés clients) qui met au défi la précédente génération de logiciels, marquant le début d’une consommation plus soutenue d’analyses par des entreprises de toute taille. En résumé, le déploiement dans le cloud est devenu un élément clé de la quête d’universalité dans l’analyse – surtout lorsque cette dernière s’opère de manière modulaire via les applications web utilisées au quotidien.
D’après Nucleus Research, « 
À mesure que les entreprises s’approprient pleinement les fonctionnalités analytiques aujourd’hui proposées avec les formules de tarification à la consommation et sur abonnement, elles continueront à tirer profit des évolutions du marché avant leurs homologues et à bénéficier, pour chaque dollar investi dans l’analyse, d’un retour sur investissement moyen de 10,66 dollars. » En 2014, le déploiement en mode cloud transformera le modèle de consommation analytique.

3. De l’assujettissement à un schéma à l’assujettissement à des idées, les véritables perspectives du phénomène « Big Data »

Naguère (et encore trop souvent aujourd’hui), nous collections uniquement les données que nous pouvions nous permettre de stocker, et auxquelles nous réservions un usage précis. Programmés, en quelque sorte, pour réduire les données à leur plus simple expression, nous étions donc (et sommes encore) assujettis à un schéma. Or, aujourd’hui, nous devons connaître à l’avance ce à quoi nous destinons les données recueillies. Cette façon de voir les choses laisse peu de place, voire aucune, à la plus-value latente que peut procurer à l’avenir un jeu de données. En physique, nous admettons que l’énergie possède une valeur immédiate (cinétique) et une valeur future (latente). Pourquoi en serait-il autrement des données ?
Du fait de la baisse des coûts et de l’augmentation exponentielle des capacités technologiques, nous sommes à présent en mesure de stocker et d’exploiter LA TOTALIT
É des données, et non plus uniquement certaines d’entre elles. Mais peut-être ne mesurons-nous pas toujours la valeur de celles que nous collectons. Leur valeur latente deviendra toujours plus manifeste d’année en année, et les technologies normaliseront cet état de fait. Les véritables perspectives offertes par le phénomène « Big Data » reposent sur la force de l’imagination dont nous faisons preuve pour exploiter ces données, et mettre au jour de nouvelles corrélations et sources de valeur là où cela aurait été impossible auparavant.
Il est aujourd’hui plus aisé de libérer le potentiel de ces nouvelles sources de valeur dans un monde toujours plus numérisé ; pour preuve, nous exploitons régulièrement de nouveaux types de données : géolocalisation, mises à jour de capteurs, flux de clics, vidéos et images, documents et formulaires, etc. Il y a encore quelques années, quasiment aucun n’aurait été assimilé à des « données ». La généralisation de ces nouveaux types de données et la recherche de corrélations susceptibles d’avoir des répercussions positives sur l’entreprise auront pour effet de déplacer les contraintes, et ce sont la qualité et la quantité de nos idées qui importeront. En 2014, nous ne serons plus assujettis à un schéma, mais à des idées ; la valeur ajoutée, elle, sera à retirer dans le phénomène « Big Data ».

4. En quête de rentabilité; l’innovation technologique orientée métier créera une rupture et favorisera la croissance

Exploiter davantage de données, c’est favoriser l’innovation. Or, l’innovation est à même de transformer les processus, les produits, les services et les ressources humaines. Notre nouvelle capacité à analyser et à extraire des tendances dissimulées au sein de gigantesques volumes de données encouragera une nouvelle génération d’innovations technologiques orientées métier. Du fait de cette tendance, la structure informatique doit trouver de nouveaux modes d’intégration et de collaboration au sein de l’entreprise, en devenant un facilitateur d’innovations orientées métier. Cette collaboration est plus importante que jamais puisque la technologie constitue à présent le nouveau champ de bataille économique, tous secteurs d’activité et toutes entités confondus. Même les dernières prévisions de Gartner font la part belle au thème de la révolution industrielle numérique et regorgent de mots d’ordre à l’intention des DSI et de leurs structures informatiques, sommés de jouer un rôle moteur ou de faire place nette. Le monde a décidément bien changé.

Toutes les entreprises revêtent à présent une dimension technologique. Chacune d’elles n’a d’autre choix que de mettre à profit la technologie pour tirer son épingle du jeu et se forger un avantage compétitif. Cette tendance se vérifie au sein des entreprises de premier plan, tous secteurs d’activité confondus, dont les divisions contrôlent d’ores et déjà 61 % des dépenses technologiques, d’après IDC. Heureusement, les obstacles technologiques à l’entrée n’ont jamais été aussi bas. Les structures de toutes tailles ont aujourd’hui accès, à un coût abordable, à des outils d’entreprise performants ; elles sont ainsi capables de lutter à armes égales voire, pour les plus petites, de rivaliser avec les poids lourds (parfois même plus efficacement du fait de leur agilité). Prenons l’exemple d’AirIT, qui contribue à faire de chaque compagnie aérienne un centre de données orienté technologies, régi par des indicateurs métier pertinents qui, à leur tour, sont sources de simplification opérationnelle et d’économies.
Les grandes entreprises de renom miseront ouvertement sur leur personnel, leurs compétences et leur organisation pour maximiser les utilisations technologiques inédites – créant une réaction en chaîne qui influera sur la gestion de la formation et du personnel à tous les échelons. Même les
organisations militaires admettent que l’acquisition de compétences et d’une expertise en données et en analyse demeureront indissociables de la promotion personnelle. Le risque, c’est qu’une concentration accrue de savoir-faire technologique créera des « nantis » et des « pauvres » dans le domaine numérique, laquelle génèrera une véritable spirale infernale pour les « lanternes rouges ».
Enfin, pour que l’innovation technologique orientée métier puisse véritablement prospérer, encore faut-il qu’un plus grand nombre de professionnels (comparativement à aujourd’hui) aient accès aux quantités de données et aux analyses appropriées (ni trop, ni trop peu), en temps voulus, afin de faire de chacun un analyste et un décideur plus qualifié (
indépendamment de son niveau de qualifications, de sa fonction ou de ses compétences). En 2014, l’analytique se pratiquera, plutôt qu’elle ne se rêvera, et la quête de décisionnel au sein des applications et processus métier utilisés au quotidien sera l’un des moteurs de l’innovation technologique orientée métier.

 * sentiment analysis