La communauté informatique s’éprend régulièrement de nouveaux concepts: Cloud, virtualisation, SaaS... Puis c’est au tour de l’In-Memory, particulièrement dans les cercles de l’analytique et du Big Data. Les performances promises justifient-elle l'investissement exigé ?
Comme son nom l’indique, la
technologie In-Memory consiste à stocker les données en mémoire
RAM plutôt que sur disque. Inutile de préciser que les analyses de données en RAM s’exécutent considérablement plus vite que sur disque. Influencées par le battage médiatique et les campagnes marketing des fournisseurs, voilà que les entreprises s’apprêtent à casser leur tirelire pour investir dans une solution In-Memory.
Les promesses d’exceptionnelles performances analytiques et de BI feraient, semble-t-il, passer la pilule du coût excessif de ce nouvel investissement.
Dernièrement, toutefois, le Gartner a revu à la baisse ses prévisions d’investissements informatiques à l’international, n’annonçant plus que 2,5 %1 au lieu de 3,7 %. Les nombreux DSI dans la crainte de nouvelles coupes budgétaires auraient donc tout intérêt à se demander si leurs besoins analytiques et de BI justifient un tel investissement dans l’In-Memory.
Le passage au numérique change la donne, y compris dans les entreprises, qui voient se multiplier les sources de données (réseaux sociaux, outils de conversation en ligne et autres supports numériques) et, par conséquent, les volumes de données sans cesse plus importants qu’elles ont tout intérêt à exploiter pour gagner en compétitivité. Mais sont-elles équipées pour ce faire ? Les solutions d’analyse en mémoire RAM accélèrent le traitement de gros volumes de données. En ceci les fournisseurs ne mentent pas. Mais à quel prix ?
Avant toute chose, il faut s’assurer que le système de base de données de l’entreprise a suffisamment de RAM pour supporter les volumes de données à analyser. Or ces volumes enflent à une vitesse ahurissante. Selon les analystes de Mckinsey, d’ici à 20202, on générera 44 fois plus de données non structurées qu’aujourd’hui. La taille de la base de données surpassera donc tôt ou tard la capacité de mémoire sous-jacente.
Que feront alors les DSI ?
Certains se contenteront du système hybride RAM/disque aux performances d’analyse variables - à l’encontre, selon moi, des aspirations de rapidité d’analyse décisionnelle des entreprises. En effet, comment savoir quelles données il vaut mieux analyser en RAM ou sur disque ? Comment faire en sorte que la base de données ait toujours suffisamment de mémoire pour faire face à la demande ? La plupart des serveurs n’ont qu’une capacité de RAM limitée. Aussi, seule une faible proportion des données pourra être stockée en mémoire, quand le reste sera cantonné aux disques, moins rapides.
Beaucoup d’autres entreprises optent déjà pour l’achat de RAM supplémentaire. Une solution qui coûte cher même si le prix de la mémoire a chuté ces dernières années. Au risque de paraître alarmiste, je suis convaincu que les entreprises qui font ce choix ont tort : un jour ou l’autre leurs serveurs seront à court de mémoire et elles devront investir dans des équipements supplémentaires.
Si le prix de la RAM a considérablement baissé ces dernières années (de 851 $ les 8 Mo en 1990 à 72 $ les 64 Mo en 2000, puis entre 50 et 70 $ les 8 Go en 20113), ce sont aujourd’hui des téraoctets, voire des pétaoctets de données que les entreprises doivent analyser. La difficulté est donc de savoir combien les DSI sont prêts à investir dans le système In-Memory qui leur fera profiter au mieux des avantages de rapidité d’analyse que la RAM a à offrir. Mais ce n’est pas tout : une telle approche a pour conséquence immédiate l’augmentation inévitable du nombre de serveurs du système de base de données, avec ce que cela suppose de frais d’implémentation, d’administration, d’alimentation électrique et de refroidissement, en plus du coût d’achat des serveurs et de la RAM. Et la liste ne s’arrête pas là.
Que peuvent donc faire les DSI pour satisfaire ce besoin insatiable d’analyse de données ? Existe-t-il un moyen de rompre le cercle vicieux de l’In-Memory ?
L’une des pistes serait d’utiliser au mieux les processeurs hautes performances des serveurs modernes ; de profiter des remarquables avancées des UC d’aujourd’hui pour compenser les limites de RAM.
Si l’on considère que la répartition des données entre les disques et la RAM est inévitable, les DSI pourraient aussi compenser les inconvénients de cette approche en optant pour les technologies de disques modernes et les algorithmes de mise en cache intelligente, et réduire les volumes des données stockées en colonnes par le traitement vectoriel et au moyen d’outils de compression.
Dans tous les cas, il faudra compter avec la RAM dans les stratégies d’accélération de l’analyse du Big Data. Mais les DSI ne doivent pas négliger pour autant les technologies plus récentes qui leur permettraient d’éviter des dépenses supplémentaires, en équipements, en ressources et en énergie, jusqu’à éliminer la décision d’acheter ou non de RAM. D’ailleurs la question n’est pas tant d’être pour ou contre l’In-Memory, elle est bien plus globale.
Les DSI devraient se demander comment sortir des considérations de capacité de RAM et d’espace disque pour faire face au tsunami de données analytiques qui s’annonce, en exploitant au maximum les équipements en place et leurs processeurs hautes performances. Ce n’est qu’alors qu’ils pourront interroger facilement d’énormes volumes de données complexes, à bien moindres coûts et sans consommer de l’énergie à outrance.