La prévisibilité des architectures IT, une pièce manquante pour l'IA multi-locataires
Avec l'émergence des plateformes d'IA, comment gérer les charges de travail dans les infrastructures partagées ?
C'est dans les infrastructures partagées que les plateformes d'IA se heurtent le plus aux limites des processeurs des serveurs traditionnels. Dès que plusieurs charges de travail sont exécutées côte à côte, les performances de calcul deviennent imprévisibles. La latence fluctue, les marges de capacité s'élargissent et les coûts accroissent, non pas parce que la demande a augmenté, mais parce que le processeur lui-même introduit de la variabilité dans le système.
Pendant des décennies, les processeurs de serveurs ont été optimisés pour un monde différent : un monde qui privilégiait les pics de performance momentanés, souvent dus à une seule charge de travail dominante. Ces conceptions peuvent sembler impressionnantes dans le cadre d’un test d'application unique, mais dans les environnements modernes d'intelligence artificielle multi-locataires, elles se comportent très différemment. Pour atteindre ces pics, les processeurs hérités partagent les ressources d'exécution en interne, modifient la puissance de manière dynamique et changent de fréquence à mi-parcours. Lorsque plusieurs services coexistent, ces mécanismes créent des interférences involontaires. Un bref pic dans une charge de travail peut ralentir une requête d’inférence exécutée en parallèle, obligeant les opérateurs à ajouter des capacités de calcul simplement pour maintenir la stabilité des infrastructures, même si la demande sous‑jacente n’a pas changé.
Cette variabilité se révèle coûteuse à l’échelle du produit et de la plateforme. Elle complique la planification des capacités, masque leur utilisation réelle et pousse les équipes à « surprovisionner » l'infrastructure afin de se prémunir contre les pires scénarios. L'industrie a largement tenté de gérer ce problème de manière logicielle, en utilisant des techniques de planification, d'isolation et des couches d'orchestration de plus en plus complexes pour mieux router les charges. Pourtant, cette approche traditionnelle n'est plus adaptée aux environnements d'IA multi-locataires et la prévision des capacités de calcul doit commencer plus tôt, au niveau de l'architecture.
Conséquence : la conception des processeurs modernes évolue dans une direction différente. Elle se porte vers une isolation stricte de l'exécution, où un seul cœur physique exécute un seul thread, sans exception. Ainsi, les chemins d'exécution ne s'opposent pas les uns aux autres, les ressources partagées ne sont pas réattribuées dynamiquement à mi-requête et la fréquence reste stable. Une inférence censée se comporter de la même manière à chaque exécution doit pouvoir suivre ce schéma.
Cette approche est renforcée par une bande passante mémoire abondante et répartie de manière homogène, ce qui garantit que les charges de travail restent alimentées de manière constante sans ralentissement inattendu. Au lieu d'apprendre aux systèmes à s'adapter à la variabilité, la variabilité est supprimée à la source.
L'impact va bien au-delà de la régularité des performances. Lorsque la latence d'inférence est stable au niveau matériel, la planification de la capacité devient concrète et mesurable. Les services multi-locataires n'ont plus besoin de gonfler les budgets pour respecter les accords de niveau de service de manière responsable. Les modèles de tarification gagnent en clarté car le comportement ne fluctue pas en fonction de la charge. Les équipes chargées de la sécurité et de la conformité gagnent en confiance car l'isolation des performances réduit le risque d'effets secondaires entre les locataires d’un même cloud. Les équipes d'ingénierie, quant à elles, peuvent se concentrer sur l'amélioration de la qualité du modèle et de l'expérience utilisateur plutôt que sur la compensation des interférences à l'intérieur du processeur.
À mesure que l’IA fonctionne parallèlement aux innombrables services qui sous-tendent les produits numériques modernes, la gestion des charges de travail évolue. L’enjeu n’est plus d’atteindre des pics théoriques, mais d’offrir à chaque utilisateur un calcul cohérent et fiable, en toutes circonstances. La prévisibilité architecturale rend cela possible. A mesure que de plus en plus de processeurs modernes adoptent des conceptions monothreads et une isolation des priorités, l’IA multi‑locataire peut enfin évoluer sans tampons cachés, sans latence imprévisible et sans gaspillage d’infrastructure.