Réseaux d'entreprises : quelles priorités pour 2018 ?

L'augmentation de la vitesse des réseaux génère des problèmes. Les entreprises qui analysent difficilement le trafic sur un réseau 10 Gbps auront plus de difficultés à le faire sur un réseau 100 Gbps.

A l'heure de l’accroissement de la connectivité des objets et des personnes, et tandis que les entreprises sont en quête d’une voie vers la transformation numérique, le réseau endosse un rôle plus critique que jamais. La mobilité des collaborateurs, l'essor de l'internet des objets et la prolifération des applications cloud exigent que les entreprises accélèrent leur infrastructure réseau pour s’adapter aux changements.

Au fur et à mesure que la vitesse du réseau augmente, ceux qui sont chargés de sa gestion vont être confrontés à une vérité dérangeante : les problèmes relatifs au réseau se multiplient eux-aussi à des vitesses plus élevées. Si vous n’êtes en mesure d’analyser qu'un pourcentage du trafic sur un réseau 10 Gbps, le pourcentage du trafic que vous serez en mesure d'analyser sur un réseau 100 Gbps sera encore moindre. 

À cette vitesse, la source d’un problème donné sera encore plus difficile à identifier, ce qui rendra les approches échantillonnées plus vulnérables aux faux positifs et aux faux négatifs. Lorsque vous lancez une capture et une analyse de paquets après que le problème s’est produit, dans la plupart des cas les paquets capturés peuvent ne pas être associés au problème et donc une analyse et une identification de l’origine du problème est presque impossible. Dans ce contexte, la meilleure solution consiste à implémenter un système de surveillance continue du réseau qui permettra de suivre toutes les activités réseau sans impact sur le stockage et le réseau.

Cisco Systems prévoit que le trafic IP mondial des datacenters augmentera de 31 pour cent par an au cours des cinq prochaines années. Dans le même temps, les commandes de ports 100G devraient augmenter de façon spectaculaire. En 2013, les commandes de ports (par unité) pour les réseaux 10G et en-dessous s’élevait à environ 200 000. D'ici 2022, le réseau 100G et plus comprendra environ 1 000 000 de commandes de ports (par unité) tandis que les réseaux 10G et moins resteront stables ou diminueront de 200 000 (Source Dell'Oro: JP Morgan).

Selon Douglas O'Flaherty, sur le sujet des tendances big data, "alors que les entreprises observent une explosion des volumes de données transportées à travers leurs réseaux, une théorie prétend que plus un set de données est volumineux, plus il fournit d'informations exploitables. Mais les praticiens commencent à identifier les limites des approches big data : disposer d’un volume de données important n’équivaut pas à bénéficier d’insights significatifs et, deuxièmement, il peut devenir trop coûteux en termes de puissance de calcul d’identifier les données susceptibles de fournir des insights utiles.

Le big data génère de la valeur à partir du stockage et du traitement de très grandes quantités d'informations numériques. Or le principal défi est que ces informations ne peuvent être analysées avec précision en utilisant les techniques informatiques/architecture traditionnelles. La question se pose d’autant plus que selon le McKinsey Global Institute le volume de données croît de 40% par an et qu'il sera multiplié par 44 entre 2009 et 2020. Par ailleurs, selon une enquête réalisée par Capgemini Consulting en novembre 2015, seuls 35 % des 226 professionnels de l'informatique affirment qu'ils sont loin de pouvoir tirer pleinement profit de leurs big data. La raison en est qu'ils ne disposaient pas des outils réseau adéquats pour saisir, valider et analyser les données de façon à la fois efficace et précise. Toutefois, comme les organisations concentrent leurs efforts sur l'ajout de bande passante, cherchent à moderniser leurs réseaux en les pilotant par logiciel et veulent étendre les capacités de leurs réseaux sans fil, leur principale préoccupation est celle de la sécurité. Toujours selon O'Flaherty, lorsqu'un grand réseau d'entreprise tombe en panne, les soupçons se portent immédiatement sur une atteinte à la sécurité.  Pourtant l’origine de la panne peut tout aussi bien être un pic de données difficile à détecter, une micro salve ou une mauvaise configuration. 

Le problème est que les tâches de surveillance des performances réseau et de surveillance de la sécurité sont séparées et cloisonnées.

Mais, en cas de panne, lorsque les équipes sont cloisonnées, il arrive qu’elles se rejettent mutuellement la faute tandis que des problèmes réseau aux conséquences potentiellement désastreuses passent inaperçus ou prennent plus de temps à isoler.

A l’instar de ce que l’on observe dans le mouvement DevOps, qui réunit équipes de développement et d'exploitation, les entreprises commencent à voir l’intérêt d’une coopération accrue entre les équipes réseau et sécurité.

Les acteurs malveillants sont de plus en plus habiles à détecter les "failles de sécurité" résultant d’interactions insuffisantes entre les différentes équipes au sein d’une même organisation. Le défi reste que les SecOps et les NetOps sont souvent des tâches dont les objectifs diffèrent et qui ne communiquent pas suffisamment, le plus souvent en raison du cloisonnement structurel de l’entreprise.

Les entreprises sont gagnantes si les deux équipes travaillent ensemble. Une équipe de sécurité parfaitement coordonnée peut générer des économies tant en termes de budget que de temps. Par exemple, en investissant dans des outils et en partageant les données de sécurité entre ces équipes, on éliminera le besoin d'acheter des mécanismes préventifs supplémentaires (et parfois inutiles).

Annonces Google