Mutation des datacenters : quand les réseaux imitent le cerveau humain
Hyper-convergence, SDN, augmentation des besoins en bande passante, systèmes plus ouverts... L'accélération de la transformation des datacenters incite les organisations à envisager de nouvelles architectures réseau pour maximiser efficacité et rentabilité.
A mesure que les réseaux évoluent et s’adaptent aux nouveaux besoins
des entreprises et des individus, de plus en plus de similitudes apparaissent
entre les réseaux d'aujourd'hui et le cerveau humain. Les capacités de calcul
et de stockage ne devraient bientôt plus former qu'une seule fonction de calcul
qui se rapprochera des données sur lesquelles elle s'appuie. Cette évolution favorisera
l'essor des environnements informatiques hyper-convergés, qui vont sans aucun
doute devenir la norme.
Gérer des données hybrides à grande échelle devient critique,
notamment à cause des fortes différences d’exigence et de réglementation en
matière de souveraineté des données dans certaines zones géographiques
(l’Europe par exemple). Auparavant, la capacité d'innovation humaine était
presque entièrement déterminée par le volume total de puissance de calcul, de
capacité de stockage et de bande passante disponible.
En connectant les éléments de calcul et les éléments de stockage, la mise en
réseau permet aux développeurs de s'affranchir des limites habituellement
imposées aux ressources de calcul et de stockage.
Vers des réseaux 100G
On attend aujourd'hui des réseaux qu'ils soient toujours plus rapides et plus évolutifs. Massivement adoptées en 2015 par des entreprises ayant intégré leur valeur ajoutée, les technologies SDN devraient contribuer à satisfaire cette demande de rapidité et d'évolutivité. Les contrôleurs SDN seront eux aussi déployés à grande échelle grâce à la mise à disposition de solutions SDN intégrées. La recherche d'une plus grande évolutivité a amené les secteurs verticaux à prendre des mesures incisives pour s'adapter à la demande. Dans le secteur de l'enseignement par exemple, les universités se tournent rapidement vers des réseaux 100G car elles bénéficient de fonds publics qui atténuent le coût de de la transition.
Vers des réseaux plus ouverts
Le mouvement de mise en réseau ouvert est favorisé par les exigences de flexibilité et d'efficacité. Les poids lourds de la Silicon Valley, Facebook et Google, œuvrent depuis un certain temps déjà en faveur de l'ouverture des plateformes. Ce processus devrait clairement s'intensifier en 2016. L'évolution des standards et l'ouverture des plateformes vont mettre fin aux situations de dépendance vis-à-vis des fournisseurs. D'après un récent rapport IHS de l'analyste Clifford Grossner, les switches sans système d'exploitation, qui font partie intégrante du concept de réseau ouvert, représenteront d'ici 2019 26% des ventes mondiales de ports Ethernet pour les centres de données. Ce taux avoisinait les 12% au début de l'année 2015, ce qui indique que l'utilisation d'outils de mise en réseau ouvert devrait poursuivre sa progression au cours des 18 mois à venir.
Vers une adoption massive des applications conteneurisées
Les applications conteneurisées évoluent à l'heure où les entreprises de toutes tailles s'y intéressent de plus près. Les récentes annonces faites par Docker permettent désormais aux conteneurs d'identifier à quel endroit du cluster, du datacenter ou d'un cloud distant se trouvent leurs pairs et de s’y connecter automatiquement. Par ailleurs, l'outil Kubernetes, créé et soutenu par Google, a le vent en poupe, stimulé par des événements tels que Kubecon. La connectivité est aujourd'hui meilleure que jamais, la sécurité dans son ensemble s'est elle aussi considérablement améliorée, ce qui ouvre la voie à une adoption plus rapide des technologies de conteneurs.
Augmentation des débits, généralisation du SDN, popularité
croissante des systèmes ouverts et interopérables et arrivée à maturité des
conteneurs laissent présager une
adoption de grande ampleur en 2016 de nouvelles technologies et une accélération
de la transformation du datacenter.