Le data center du futur

Qu'est-ce que le data center du futur ? Quelles doivent être ses capacités et quels scénarios faut-il gérer ? Le point.

Les nouvelles exigences des charges de travail de traitement des données, telles que l’IoT, les appareils intelligents, ainsi que la sécurité et la réglementation relatives aux données engendrent des défis et des opportunités inédits. Cet article étudie en détail certaines caractéristiques incontournables des data centers de demain.

En migrant leur data center sur site vers le cloud, les entreprises se sont déchargées de nombreux aspects complexes liés à la maintenance du centre, le cloud leur offrant un accès au traitement, au stockage et au réseau conçus comme des produits banalisés. Cependant, ce changement de modèle a posé d’autres défis aux entreprises. En effet, elles utilisent parfois plusieurs fournisseurs cloud, tout en continuant d’assurer la maintenance ou la mise en œuvre de solutions sur site pour héberger leurs applications existantes, ou pour des cas d’utilisation de niche, tels que la gestion des exigences liées à la périphérie ou à la haute sécurité.

Le modèle fondamental de la distribution de services par le centre de données, voire la définition même du centre, évoluent rapidement, tout comme les attentes des développeurs qui créent les applications de demain. Alors, que nous réserve l’avenir ? Qu’est-ce que le data center du futur ? Quelles doivent être ses capacités et quels scénarios faut-il gérer ?

Flexibilité

Les nouveaux data centers devront être extrêmement flexibles pour pouvoir s’adapter à de nombreux environnements différents. Les fournisseurs de clouds publics sont appelés à devenir des acteurs centraux dans cet avenir, mais nous allons d’abord examiner les environnements sur site, qui continueront de jouer un rôle important.

Dans certains cas d’utilisation, les infrastructures sur site peuvent s’avérer plus rentables que leurs équivalents sur le cloud public. Gartner a constaté que les services cloud peuvent être, au départ, plus coûteux que l’exploitation de data centers sur site, avec un retour sur investissement global négatif. Ceci suppose bien entendu que la complexité et le risque ne l’emportent pas sur le facteur coût.

Les cas d’utilisation sur site les plus judicieux sont les suivants :

Les charges de travail de big data, grosses consommatrices de réseau et de stockage : les coûts du réseau et du stockage peuvent être étonnamment élevés sur le cloud public, rendant les infrastructures sur site plus économiques.

Les environnements hautement sécurisés tels que les gouvernements, les institutions financières et le secteur de la santé sont quelques-uns des exemples de secteurs où il est important de conserver une exploitation sur site. Si les fournisseurs cloud sont capables de satisfaire de nombreuses exigences de sécurité, la conformité aux normes gouvernementales ou aux certifications peut s’avérer impossible.

La flexibilité doit également s’appliquer à l’utilisation des fournisseurs de cloud public. Par exemple, les entreprises peuvent être amenées à utiliser simultanément plusieurs fournisseurs, ou à passer de l’un à l’autre pour des raisons de coût, de stabilité de la plateforme, de choix de fonctionnalités ou, comme les événements récents l’ont révélé, pour des motivations géopolitiques.

Distribution géographique

Une autre caractéristique des data centers sophistiqués est leur capacité à proposer une distribution géographique diversifiée. Trois raisons principales justifient le choix d’une infrastructure distribuée.

La première est de limiter les pannes et les pertes de données en évitant les points de défaillance uniques. La liste des incidents potentiels qui peuvent impacter un data center est assez longue : coupures de courant, incendies, défaillances et pannes du système, erreurs humaines, perturbations du réseau ne sont que quelques-uns des nombreux risques qui planent sur eux. En répartissant l’infrastructure entre plusieurs data centers géographiquement distants, les entreprises atténuent ces risques.

La deuxième raison est la proximité. L’hyperconnectivité apportée par la 5G repousse les limites. Les données étant de plus en plus consommées et produites en périphérie, les data centers du futur seront appelés à desservir un nombre croissant d’appareils de la périphérie : armoires de données des enseignes de la distribution au détail et des usines, mobilier urbain des villes intelligentes, capteurs dans les parkings, vidéosurveillance et voitures autonomes. La proximité offre un certain nombre d’avantages, comme la réduction de la latence et la diminution du coût du transport des données. D’aucuns affirment même que la proximité est la raison même pour laquelle l’ère du cloud computing atteint aujourd’hui ses limites.

La dernière raison est que les entreprises sont de plus en plus souvent tenues de contrôler l’emplacement des données pour garantir la conformité réglementaire, la souveraineté des données et leur protection. La capacité à se conformer aux exigences des juridictions et des clients dans le respect du Règlement général sur la protection des données (RGPD) et des 120 autres lois sur la protection des données vont contraindre les data centers à fonctionner en totale transparence avec les infrastructures d’hébergement du monde entier. Compte tenu de l'hyper concentration actuelle des principaux fournisseurs cloud dans un nombre restreint de pays, cet aspect sera essentiel.

Indépendance vis-à-vis des fournisseurs

Le data center du futur devra être indépendant des fournisseurs. Quels que soient les matériels ou la technologie sous-jacente de machines virtuelles ou de conteneurs, les capacités d’exploitation et d’administration doivent être transparentes. Cette flexibilité permet aux entreprises de rationaliser leurs processus de déploiement et de maintenance et d’éviter de se retrouver prisonnières des fournisseurs.

En outre, comme aucun fournisseur cloud n’est présent partout dans le monde, le data center idéal doit pouvoir fonctionner dans n’importe quel environnement afin de répondre aux exigences de distribution que l’on vient d’évoquer. Pour cette raison, les nouveaux data centers seront en grande partie constitués de composants open source afin d’atteindre un tel niveau d’interopérabilité.

Une expérience utilisateur optimale

La distribution et la flexibilité ne doivent pas se faire au détriment de la facilité d’utilisation. Les data centers doivent permettre d’utiliser des capacités cloud natives transparentes, telles que la mise à l’échelle à la demande des ressources de traitement et de stockage, ainsi que l’accès à des API pour les intégrations. Bien que ce soit la norme pour les conteneurs et les machines virtuelles sur les serveurs, ces mêmes capacités doivent s’appliquer à tous les environnements, même aux appareils distants tels que les dispositifs IoT et les serveurs de périphérie.

Le défi pour les fournisseurs de services logiciels

Le data center du futur présente de nombreuses similitudes avec le multicloud ou le cloud hybride d’aujourd’hui. Cependant, alors que deux tiers des DSI souhaitent faire appel à plusieurs fournisseurs, seuls 29% d’entre eux le font effectivement, et leur budget cloud est capté à 95% par un seul fournisseur de services cloud. En d’autres termes, il existe un besoin important qui n’est pas encore satisfait.