Essor de l'IA : quels enjeux pour les datacentres ?

De nombreuses entreprises ont tardé à réfléchir à la manière dont elles devraient intégrer l'IA, en particulier en ce qui concerne la puissance de calcul nécessaire.

Alors que les dépenses liées au déploiement de l’IA devraient dépasser les 300 milliards d’euros d’ici 2026*, l’émergence de grands modèles de langage (LLM) a ouvert de nouvelles perspectives pour l’IA générative. Les dernières avancées ont incité de nombreuses entreprises à élaborer des stratégies d’IA afin d’en tirer pleinement parti. Malgré cela, un défi subsiste : de nombreuses entreprises ont tardé à réfléchir à la manière dont elles devraient intégrer cette technologie, en particulier en ce qui concerne la puissance de calcul nécessaire et par conséquent les exigences en matière de centres de données. En analysant le secteur des datacentres, il en découle quatre grandes tendances majeures intimement liées à l’essor de l’IA et des besoins spécifiques des entreprise auxquels ceux-ci doivent répondre. 

Une demande croissante en puissance de calcul

La très populaire IA conversationnelle ChatGPT n’a pas encore fêté sa deuxième bougie que l’IA générative est de tous les débats technologiques, sociétaux mais également au sein des entreprises. La révolution provoquée par cette technologie de rupture est telle, qu’on lui prête plus de bouleversements que l’arrivée d’Internet.  Que l’on parle de productivité, d’automatisation de certaines fonctions, voire de la création de nouvelles offres, les entreprises les plus ambitieuses se positionnent d’ores déjà pour intégrer les dernières avancées à tous les niveaux de leur activité. Mais le développement et l’implémentation de nouveaux modèles d’IA, notamment les Deep Neural Network, requiert une capacité de calcul phénoménale et une consommation énergétique considérablement plus élevée que les précédents modèles. Cette évolution impose aux datacentres une adaptation de leurs infrastructures pour répondre à cette demande sans cesse croissante en puissance et en énergie, avec un impact plus conséquent d’un point de vue environnemental. 

Les modèles d’IA préexistants sont eux optimisés pour une utilisation efficiente des ressources matérielles et peuvent être déployés plus rapidement que les nouveaux modèles d’IA. Ainsi, une stratégie basée sur l’usage des modèles précédents permet de faire appel aux ressources déjà disponibles tout en minimisant l’empreinte environnementale. 

La préférence pour les modèles d’IA préexistants

Les entreprises, conscientes des défis liés à la mise en place d’infrastructures d’IA de A à Z, se tournent alors de plus en plus vers l’utilisation de modèles d’IA préexistants, intégrés dans leurs infrastructures privées. Cette approche offre non seulement une solution plus économique, mais aussi plus sécurisée, en s’appuyant sur des modèles déjà éprouvés et optimisés. 

L’entrainement de modèles d’IA spécifiques aux métiers de l’entreprise peut modifier les exigences en matière d’infrastructure. Mais en personnalisant les modèles d’IA générative existants ainsi que les modèles de formation traditionnels basés sur des données privées, celles-ci cela va tout même exiger moins d’énergie que la construction de modèle de langage à partir de zéro. 

La préférence pour les modèles d’IA préexistants dans les datacentres peut également être influencée par les implications réglementaires en matière de conformité, de confidentialité et de sécurité des données. Les réglementations en vigueur peuvent encourager l’utilisation de modèles d’IA déjà validés et conformes aux normes établies pour minimiser les risques juridiques. 

L’impératif de l’efficacité énergétique face à la montée en puissance du HPC

La croissance exponentielle de la consommation énergétique dans les datacentres exige une réévaluation urgente de leur capacité à absorber cette demande croissante. Avec l’émergence du HPC (Calcul Haute Performance) et de la densification des infrastructures, les clients doivent désormais considérer attentivement la gestion de leurs besoins en IA. L'entraînement de modèles nécessite une puissance de calcul considérable pour traiter de vastes quantités de données. Cette étape, gourmande en ressources, est cruciale pour affiner les résultats. En revanche, une fois entraînés, les modèles d'inférence, utilisés par les utilisateurs finaux, requièrent des ressources moindres. Cette distinction entre les deux phases reflète une approche pratique pour optimiser l'utilisation des ressources informatiques, en concentrant la puissance là où elle est le plus nécessaire, tout en minimisant les besoins énergétiques pour les tâches quotidiennes des utilisateurs finaux. 

Pour répondre à ces défis, des serveurs haute densité et des datacentres capables de supporter cette dernière sont essentiels, tant sur le plan technique que sur le plan de la gestion thermique. L'efficacité énergétique devient donc primordiale, et la solution réside dans le déploiement de ces infrastructures dans des centres de données déjà optimisés en termes de consommation, exploitant des technologies telles que le Liquid Cooling. 

Ces tendances dessinent une nouvelle ère pour les datacentres, qui se doivent évoluer rapidement pour répondre aux besoins grandissants de l’IA tout en restant alignés sur les impératifs du développement durable. Les entreprises et les acteurs du secteur doivent être proactifs dans leur adaptation à ces changements pour assurer leur compétitivité dans un paysage technologique en perpétuelle mutation. Aujourd’hui, les entreprises accordent une priorité à l’automatisation des opérations, à la vision par ordinateur et aux chatbots. Dans deux ans, elles mettront en avant les AIOps, l’intelligence augmentée ainsi que les applications d’analyse.

* IDC 2023 (pending approval by IDC by 10/27)