Comme les oscillations d'un pendule… ainsi va la technologie
Le secteur de la tech évolue alors que les entreprises repensent le cloud, l'IA intensifie la demande en puissance de calcul et la concentration des données guide les choix d'infrastructure.
À l’image d’un bon feuilleton, le secteur des technologies ne manque pas de rebondissements. Entre l’effervescence autour de l’IA, le raz-de-marée provoqué par DeepSeek, les réformes gouvernementales façon Elon Musk, les extrapolations énergivores et bien d’autres turbulences, le spectacle est permanent. Mais une chose est sûre dans l’univers de la tech : le pendule finit toujours par osciller dans l’autre sens. Plus exactement, des technologies que l’on croyait dépassées reviennent sur le devant de la scène et, parfois, elles ne se contentent pas de refaire surface… elles bouleversent tout sur leur passage. Récemment, mon cher collègue et membre des Clouderati (un cercle de spécialistes du cloud), David Linthicum, a publié un article très intéressant intitulé « The cloud giants stumble » (Les géants du cloud vacillent), dans lequel il met en lumière la dernière oscillation du pendule, mais, à mon goût, il n’est pas allé aussi loin que je l’espérais dans son analyse. Si vous ne l’avez pas encore lu, je vous encourage vivement à le faire. Ensuite, approfondissons un peu l’analyse !
Dave évoque le récent ralentissement de la croissance du cloud public, soulignant la hausse des coûts et les frais de sortie du marché. Mais là où il vise juste, c’est lorsqu’il explique que « les entreprises deviennent plus sophistiquées dans leur approche du cloud computing… et que la stratégie “lift and shift”, autrefois présentée comme un raccourci vers l’adoption du cloud, s’avère finalement plus complexe et coûteuse que prévu ». Il évoque également les défis liés à la souveraineté des données, à la confidentialité et à la conformité, ainsi que l’essor des fournisseurs de cloud spécialisé, la montée en puissance de l’edge computing et la nécessité accrue d’un matériel spécialisé pour les charges de travail liées à l’IA.
J’aimerais explorer la plupart de ces points clés, que je résumerais ainsi :
- Sophistication des services IT des entreprises en matière de cloud,
- Gravité et souveraineté des données,
- Edge computing,
- Intelligence artificielle et matériel spécialisé.
Au tout début de la transition vers le cloud, j’étais constamment stupéfait par ce que je découvrais en échangeant avec les entreprises. La plupart d’entre elles fonctionnaient avec ce que je qualifierais d’organisation IT hautement dysfonctionnelle. Elles étaient incapables de fournir des services dans des délais raisonnables ou à des coûts acceptables. Je me souviens d’une mission de conseil chez Kaiser Permanente en 2009 : un simple serveur rack 2U basique était refacturé en interne jusqu’à 10 000 dollars, soit un prix quadruplé par rapport à son coût réel. Des années plus tard, en 2016, alors que je travaillais chez EMC, j’ai de nouveau participé à une discussion stratégique avec Kaiser Permanente, où ils ont remercié les dirigeants seniors d’EMC pour le VCE vBlock, qui avait considérablement réduit leurs coûts de déploiement d’infrastructure. J’étais évidemment sidéré, étant donné le coût notoirement élevé d’un vBlock. Cela montrait bien qu’une grande entreprise comme Kaiser Permanente n’était tout simplement pas en mesure de fournir en interne une infrastructure basique à un prix raisonnable. Dans ce contexte, il était presque inévitable que le cloud public finisse par s’imposer bien au-delà des « charges de travail de base », y compris pour les charges de travail héritées.
Les services IT des entreprises ont évolué
En 2013, j’avais inclus l’image ci-dessus dans un deck de présentation. « Posséder la base et louer les pics » était une expression bien connue des Clouderati, car il était évident pour n’importe quel observateur que, si une entreprise disposait d’une équipe IT compétente, elle pouvait déployer une infrastructure à un coût relativement compétitif par rapport aux clouds publics. Je pense que Dave a raison d’affirmer que la sophistication des équipes IT en matière de cloud a augmenté, mais j’irais encore plus loin : d’une manière générale, leurs compétences fondamentales en informatique et en architecture se sont également affinées. L’adoption de l’open source s’est largement généralisée, et de nombreux systèmes d’orchestration sont utilisés en interne. Les équipes IT exploitent les clouds publics et privés depuis plus de 10 ans maintenant et ont montées en compétence. Bien entendu, elles sont désormais capables de fournir des infrastructures à un coût plus raisonnable qu’auparavant. Il était donc inévitable qu’elles acquièrent ces compétences, réduisant ainsi leur dépendance aux clouds publics et rendant la « possession de la base » plus réalisable. Elles ont également appris que tout ne devrait pas être sur le cloud public.
Cette tendance est particulièrement visible avec l’émergence de l’ingénierie de plateforme, que l’on peut considérer comme la tentative des entreprises de transformer les principes DevOps et SRE en quelque chose de consommable et de livrable pour les développeurs internes. Beaucoup des idéaux auxquels aspiraient DevOps et SRE ont été confrontés à l’inertie institutionnelle. Briser les silos ? Ce n’est pas une mince affaire. Cependant, l’ingénierie de plateforme, qui repose sur l’idée de construire une plateforme interne utilisable par toutes les équipes de développement, s’est imposée comme une approche gagnante. Elle permet d’offrir des « Golden Paths » (successeurs spirituels des « Golden Images » de l’époque VMware) qui aident les développeurs à livrer rapidement tout en restant « dans les clous ». Les entreprises déploient déjà des plateformes de développement internes (IDP) qui gèrent l’infrastructure interne et externe, réduisant la dépendance aux clouds publics et fournissant une couche d’abstraction cloud généraliste qui rend presque obsolètes les points de terminaison API des clouds publics. Cette tendance est réelle et là pour durer.
La souveraineté des données ? Essayez plutôt la gravité des données.
Les données possèdent leur propre gravité, comme l’a initialement suggéré le respecté Dave McCrory, un autre membre éminent des Clouderati. Derrière ces pare-feu d’entreprise se trouvent près de 100 zettaoctets de données, selon Seagate et Forrester. Cela représente la moitié des données connues dans la datasphère. Cette proportion de 45-50 % est restée constante pendant des décennies et il est peu probable qu’elle change. Les entreprises jettent 98% des données qu’elles génèrent chaque année. Pourtant, une grande partie de ces données est non seulement propriétaire (p. ex, des images de radiologie médicale, des tables de mortalité, des données de fraude et de transfert bancaire), mais peut aussi être utilisée pour entraîner des modèles d’IA afin de fournir un avantage concurrentiel à mesure que nous entrons dans cette ère de l’intelligence. Les données ne bougent pas. Le traitement doit venir à elles, et non l’inverse. La gravité des données est réelle et n’est pas près de disparaître.
L’Edge, l’Edge, mon royaume pour l’Edge
Dans ce contexte, une grande partie de ces 98 % de données jetées est générée en périphérie, notamment par des caméras de sécurité, des capteurs pétroliers et gaziers, des appareils électroménagers et des téléviseurs, des dispositifs LoRaWAN, et bien d’autres dispositifs encore. Le monde de l’Internet des objets croît de manière exponentielle, générant des quantités incroyables de données. Avec l’avènement de l’IA, cette expansion est sur le point de s’accélérer encore davantage. Plus important encore, les clouds publics n’interviennent pas à la périphérie éloignée où se trouvent la plupart de ces dispositifs. Ils n’y ont pas leur place. Ils n’interviennent même pas vraiment à la périphérie proche pour la plupart, car leurs modèles économiques reposent sur la réalisation d’économies d’échelle grâce à l’agrégation, tandis que l’edge computing, ou informatique en périphérie, est intrinsèquement distribuée. Les dispositifs à faible consommation, tels que ARM, RISC-V et autres, sont omniprésents, connaissent une croissance exponentielle et sont confrontés à une distribution extrêmement dispersée.
Le supercalcul est désormais courant
Le pendule oscille à nouveau et le supercalcul fait son grand retour. Le supercalcul ? Oui, vous avez bien entendu. Le calcul haute performance (HPC) existe depuis longtemps, mais il est resté confiné à un marché de niche. Avec l’émergence de l’ère de l’information et la montée en puissance de l’IA, il s’impose désormais comme une évidence. À l’origine, les systèmes HPC reposaient sur des serveurs x86 homogènes en mode scale-out, associés à des réseaux ultra-performants à très faible latence (souvent du matériel Infiniband de Mellanox, aujourd’hui propriété de NVIDIA). Il s’agissait d’exécuter des charges de travail MPI nécessitant d’énormes volumes de mémoire vive répartis sur plusieurs machines tout en les faisant apparaître comme un seul et même espace mémoire. Les GPU NVIDIA font face à un défi similaire, ce qui explique pourquoi l’acquisition de Mellanox a été l’un des coups de génie de l’entreprise. Tout comme la virtualisation, qui existait bien avant VMware, et les conteneurs, apparus des décennies avant Docker et Kubernetes, le HPC connaît enfin son heure de gloire. Il est bel et bien de retour !
Cependant, le modèle a bien changé. Désormais, les GPU spécialisés doivent être interconnectés via des réseaux hautes performances à ultra-faible latence, et tout doit être refroidi par eau, car une seule baie peut consommer jusqu’à 40 KVA (40 000 watts), soit 4 fois plus qu’à l’apogée des datacenters de la Silicon Valley. On pourrait presque parler de supercalcul sous stéroïdes. Quoi qu’il en soit, nous avons pris un virage à 180 degrés, délaissant les serveurs x86 génériques et standardisés conçus pour le hyperscale, au profit de GPU, LPU et NPU spécialisés, spécifiquement conçus pour les tâches de calcul vectoriel qu’exige l’IA. Les logiciels homogènes et généralistes laissent ainsi place à du matériel hétérogène et ultra-spécialisé, et cette tendance n’est pas près de s’inverser.
Qu’est-ce que tout cela signifie ? L’article de Dave mettait en avant l’idée que les géants du cloud « vacillent », mais je pense que les conséquences de cette mutation sont bien plus complexes. Voici les points clés à retenir :
- L’informatique d’entreprise évolue et adopte des approches comme l’ingénierie de plateforme et le MLOps.
- Les données privées des entreprises sont nécessaires pour entraîner de nouveaux modèles d’IA afin de rester compétitif.
- Les entreprises doivent être en mesure de déployer et de gérer leurs applications, du cœur jusqu’à l’Edge, sur tout type d’infrastructure.
- L’IA est en train de tout bouleverser.
L’avenir s’annonce comme un mélange d’ancien et de nouveau, marqué par une multiplication des applications et services, tous largement distribués et reliés à des sources de données publiques et privées. Et la complexité ne fait que croître. Nous devons considérer le cloud public et privé comme une partie de l’équation (l’infrastructure que nous consommons), nous devons voir les abstractions comme Kubernetes et l’ingénierie de plateforme comme une autre partie de l’équation (la couche d’orchestration qui gère cette infrastructure), et enfin, nous devons adopter de nouvelles solutions d’IA pour nous aider à déployer, administrer et comprendre tout ce que nous construisons ensemble.
Et une fois que tout cela sera accompli, il ne nous restera plus qu’à suivre les oscillations du pendule et le flux des marées changeantes de la technologie pour voir où ils nous mèneront ensuite.