10 challenges pour les pros de l’informatique dans un monde virtuel défini par les logiciels

Les challenges liés aux SDDC (Software Defined Data Center) auxquels feront face les professionnels de l’informatique vont être de plus en plus nombreux puisqu’ils impliquent le problème du facteur humain que la technologie à elle seule ne pourra résoudre.

Où se situe le blocage ?

Très peu d’outils permettent de fournir une visibilité de bout-en-bout d’un système. Le principal problème d’un contrôle compartimenté réside dans le fait que seuls les problèmes de surface seront apparents. Ce phénomène se réduit très souvent à une bataille entre les administrateurs des serveurs et les administrateurs des réseaux, qui au final se renvoient la responsabilité. Nous attendons tous un outil permettant d'effectuer des contrôles allant du point de vue de l’utilisateur final jusqu’aux systèmes plus techniques d'arrière-plan.

Le SDDC (Software Defined Data Centre) sous toutes ses formes

Cette année, la conférence VMworld qui se tenait à San Francisco avait pour sujet principal le SDN (Software-defined networks), c’est-à-dire la virtualisation des réseaux. La virtualisation n’est pas prête de disparaître et offre beaucoup d’avantages en termes de réduction des coûts, de gain en flexibilité de déploiement/redéploiement, d’options de plan de reprise d'activité. D’une manière plus générale, elle permet tout simplement de maintenir le fonctionnement des services informatiques. Toutes les entreprises vont, à un moment ou à un autre, en venir à la virtualisation. La question ne se pose plus. Le marché du SDDC et de son concept est constitué de nombreux acteurs. Cette bataille est donc loin d’être terminée.

Le stockage se laisse distancer par la mobilité virtuelle et les SDN

Tout comme la mobilité virtuelle peut avoir un impact sur les réseaux, si les calculs et les réseaux deviennent plus flexibles et définis par des logiciels, le stockage pourrait être abandonné. Une préparation optimisée et des investissements en termes de technologie seront nécessaires aux systèmes de stockage pour qu’ils puissent gérer la mobilité rendue possible par la virtualisation des serveurs et des réseaux (SDN).

L’effet de conflit des E/S virtuelles devient critique

Les E/S de stockage sont depuis toujours un facteur limitant la virtualisation de beaucoup d’applications présentant un volume important d’E/S telles que les bases de données. Comment des technologies tels que les SSD peuvent-elles supporter la plupart de ces applications critiques ? Les échecs en termes de performance et de gestion de capacité auront un impact encore plus grand sur les entreprises et les utilisateurs finaux. De plus, la demande en IOPS (opérations E/S par seconde) générée par la virtualisation de bureau peut être bien différente de celle générée par la virtualisation de serveur exigeant une plus faible latence et, généralement, du matériel plus onéreux.

La mobilité virtuelle affecte l’optimisation des réseaux

De manière générale, la virtualisation fonctionne depuis toujours au sein d’une partie contrôlée d’un réseau. C’est-à-dire que les changements touchant l’environnement virtuel n’ont normalement aucun impact sur le réseau général. Grâce aux améliorations et à une plus grande adoption des technologies permettant la mobilité des charges de travail telles que Metro vMotion et Storage vMotion, qui facilitent leur mobilité géographique, le mouvement rapide des charges de travail peut causer de nouveaux problèmes à l’ensemble du réseau de l‘entreprise.

Complexité du système et rôles au sein du département informatique

Les professionnels de l’informatique doivent d’abord comprendre ce qu’est la virtualisation avant de concevoir quel sera leur rôle. Ajoutez à cela le concept du cross-training (formation polyvalente) : nécessité pour l’entreprise mais qui dans les faits ne peut être réelle au sein d'un département informatique. En effet, l’équipe de ce département est très souvent surchargée, on lui demande bien trop de choses afin de maintenir le bon fonctionnement de l'entreprise pour qu’elle puisse être polyvalente. C’est un fait qui n’a pas vraiment évolué, et je ne m'attends pas à ce que cela change dans un proche futur.

Toujours actif

99,999 % du temps de fonctionnement correspond à 5,26 minutes de temps d’arrêt par an. Nous nous sommes habitués à ce que le réseau soit toujours disponible, un peu comme l’électricité de nos lampes de plafond.  Le département informatique en subit les conséquences et continue de redouter les « temps d’arrêt », qui interviennent durant  les nuits, les weekends et les vacances. Le problème, ce ne sont pas les mises à niveau mais plutôt les soucis qui apparaissent quand les utilisateurs commencent à travailler avec ces mises à niveau. Face à ce problème qui existera toujours le plus important reste l’équilibre des équipes entre vie privée et vie professionnelle afin d’éviter l'épuisement de ses membres.

Une console unique hors d’atteinte pour la gestion informatique

Ce concept existe déjà depuis plusieurs années, il a été commercialisé et vendu ad nauseam. Personne ne l’a, et tant qu’il y aura de nouvelles inventions rendant nos vies plus simples, nous ne l’aurons probablement jamais. Il y aura toujours d’autres outils pour accomplir des tâches particulières durant votre journée de travail à cause d’une technologie ou d’un matériel spécifique, mais, étant donné votre rôle dans l’informatique, vous devriez pouvoir trouver une console effectuant les tâches les plus lourdes.

Le contrôle des applications face à l’automatisation en temps réel

La plupart des échecs sont causés par un changement. C’est pour cela que généralement, sur les systèmes d'applications critiques, les équipes travaillant sur les applications mettent en place des contrôles très stricts sur les changements. D’un autre côté, la virtualisation et l’automatisation facilitent et accélèrent la création de nouveaux systèmes ou la modification de systèmes existants, voire même de clusters entiers de systèmes et d’ensembles d’applications. Ces deux écoles vont donc devoir trouver un moyen d’exploiter la puissance et la flexibilité de la virtualisation sans pour autant rendre les applications critiques virtualisées instables.

La virtualisation recouvre les silos

Réseau, stockage, applications et calculs sont tous réunis sous la couche de virtualisation. Alors que la virtualisation est de loin, l’élément le plus accompli d’un SDDC, le prochain challenge sera d'aller au-delà des limites des calculs pour trouver le meilleur moyen de gérer et de coordonner les changements/actions en lien avec d'autres domaines technologiques. Au fur et à mesure que la vitesse du changement s’accélère entre toutes les technologies liées, les professionnels de l’informatique qui gèrent la couche de virtualisation ne cesseront d’être cet élément de coordination permettant aux autres équipes de suivre la cadence.
Les administrateurs réseaux et systèmes en première ligne devront être disponibles pour résoudre, au pied levé, les problèmes d’un SDN afin d’éviter que les utilisateurs mécontents ne se révoltent.
La rapidité de résolution d’un problème, jusqu'à la remise en route, peut grandement jouer sur le mental d’un individu. Il suffit de penser, par exemple, à la différence qu'il y a entre le fait de rester tard au bureau un vendredi soir et celui de pouvoir rejoindre ses amis au cinéma, avant que le film ne commence.