Big Data, le meilleur allié de l'analyse prédictive ?

Big Data, le meilleur allié de l'analyse prédictive ? Jusqu'à présent cantonnée sur un marché de niche, l'analyse prédictive profite de l'essor du Big Data pour se démocratiser. Les PME y ont recours de plus en plus grâce à une tarification beaucoup plus attractive.

"Savoir pour prévoir, prévoir pour pouvoir". Empruntée à la sociocratie, cette formule ne manque pas de pertinence pour toute entreprise lancée (ou qui se lance) dans un projet d'analyse prédictive.

L'analyse des comportements et de la prévision des achats des internautes sur un site en ligne - voire dans une structure physique -, n'est cependant pas (ou plus) le seul apanage des grandes entreprises. Principale raison à cela ? Les coûts d'acquisition et/ou d'accès en mode locatif aux ressources et puissance de calcul, stockage et serveurs requis pour répondre à de l'analyse prédictive, sont devenus avec le temps beaucoup plus abordables.

"La puissance machine est désormais à la portée de toutes les entreprises, dont les PME, PMI et start-up ce qui n'était pas le cas auparavant. Ce qui était inaccessible il y a 5-10 ans au travers des Very Large Database, le devient aujourd'hui avec l'essor des offres de Big Data poussées par les plus grands acteurs du marché tel que SaaS, IBM, Oracle-Exadata, Microsoft-Parallels, ou encore HP-Vertica et EMC-Greenplum", explique Yves Cointrelle, directeur général d'Homsys, Groupe Viseo.

 

SAS et Terradata ont été forcées de réagir

Outre cette baisse des coûts, les solutions d'analyse prédictive ont également bénéficié d'améliorations notables en termes de pertinence et de précision d'analyse des données mais aussi de qualité d'interface logicielle.

"Les éditeurs ont considérablement amélioré la qualité des interfaces des logiciels en proposant des scénarios de cas d'usage très parlants pour les entreprises et les directions métiers, comme par exemple celui de procéder pas à pas à l'analyse des ventes par magasin à partir des tickets de caisse", poursuit Yves Cointrelle.

La possibilité de réaliser de l'analyse prédictive à un coût abordable a par ailleurs profondément bouleversé la politique commerciale et les prix pratiqués par les fournisseurs de solutions décisionnelles.

Face à l'émergence de solutions appliances comme Greenplum reposant sur des technologies PostgreSQL et Red Hat auxquelles il est possible d'adjoindre des lames provenant aussi bien du côté de Dell que d'IBM, les acteurs historiques ont dû adapter leur tarification.

Un marché de l'analyse prédictive particulièrement atomisé

"SAS et Terradata ont été forcées de réagir avec l'apparition d'offres d'analyse prédictive débutant à 30 000 euros pour 1 To de données traitées contre des offres historiquement très puissantes et haut de gamme, mais dont le prix dépassait souvent le million d'euros", fait savoir Yves Cointrelle.

Aujourd'hui, le marché de l'analyse prédictive s'est considérablement atomisé. Pléthore d'acteurs spécialisés (SLP, Spad...) ont été absorbés par de plus grands éditeurs et seuls quelques grands acteurs sortent du lot dont IBM-SPSS, Microsoft et KXEN.

"Le marché de l'analyse prédictive reste un marché de niche car les outils proposés ne se manient pas comme de simples requêteurs SQL, un vrai travail de statisticien étant requis pour exploiter l'analyse de façon pertinente. En revanche, la baisse du ticket d'entrée couplée à l'explosion des services Cloud de type Web Analytics et d'e-réputation contribuent à l'élargissement de la base clients à des entreprises plus petites mais aussi plus nombreuses", conclut Yves Cointrelle.