L’architecture Software Defined Data Center pour répondre aux nouveaux enjeux de la virtualisation

Tous les éléments des infrastructures d’aujourd’hui ont tendance à être virtualisés (serveurs, stockage, poste de travail, réseaux), ceci, combiné à l’explosion du cloud, laisse place à une nouvelle architecture, le Software Defined Data Center (SDDC). Le SDDC permet de provisionner au plus juste son infrastructure.

Tous les éléments des infrastructures d’aujourd’hui ont tendance à être virtualisés (serveurs, stockage, poste de travail, réseaux), ceci, combiné à l’explosion du cloud, laisse place à une nouvelle architecture, le Software Defined Data Center (SDDC). Le SDDC correspond à l’entière virtualisation du datacenter en permettant de provisionner au niveau logiciel les ressources informatiques. Ce modèle se répand dans les entreprises, il doit toutefois relever ses propres défis : inclure ou non l’existant, les ressources non virtuelles et traiter les problèmes d’interopérabilité entre vendeurs multiples.

La gestion est souvent considérée à tort, comme de la surveillance

Surveiller c’est bien, toutefois gérer le SDDC nécessite la capacité de prendre des décisions fondées sur le suivi qui est ou non mis en place. Le  SDDC met l'accent sur de nouveaux modèles de gestion - la collecte de données en temps réel, les analyses intégrées, et la capacité de couvrir plusieurs sources de données intelligentes. Cette analyse comporte différents objectifs : l'efficacité, le coût et l'analyse des causes.
Les objectifs comprennent l'optimisation de la charge de travail, le coût global et l'efficacité énergétique, la disponibilité ainsi que la gestion globale des risques. La combinaison de l’ensemble de ces éléments peut apparaître compliqué pour les vendeurs traditionnels de solutions de gestion.

Changer les comportements

Vous entendez souvent une variété d'excuses explications vous démontrant pourquoi l’informatique n'analyse pas les données sur l’activité de l’entreprise. En effet, souvent plusieurs raisons se conjuguent :
  • Les outils existants ne sont pas compatibles avec les données,
  • La mise en place d’un Extract Transform Load – ETL- ou extracto-chargeur dans un format compatible représente du temps et de l’argent,
  • Les efforts manuels ne s’échelonnent pas, ne s’adaptent pas à toutes les dynamiques ou toutes les réalités virtuelles,
  • Le service informatique ne possède pas d’expertise sur les données métiers,
  • Les données ne sont pas présentées simplement ou ne sont pas compréhensibles,
  • L’équipe IT n’a pas le temps de s’en charger,
  • L’entreprise ne sait pas réellement que faire de ces données,
  • Le chef de projet n’est pas sûr de savoir par où commencer,
  • La  réelle valeur des données n’est pas avérée.
Pourtant, dans cette perspective, le déploiement du SDDC permet de dégager des gains de productivité en automatisant les services informatiques virtualisés selon de nouvelles méthodes.

Identifier les failles

Alors, quel est l'état de gestion SDDC optimal ? Il faut toujours savoir quand et où les problèmes de performance auront une incidence sur la ligne de fond. Il faut donc répertorier les lacunes de coûts et de performances à l'appui des processus d'affaires et les éliminer. Il est également nécessaire d’optimiser en permanence l'expérience client, comprendre quand, où et pourquoi les expériences des clients échouent, afin de les améliorer, de prévoir et de prévenir les expériences moins satisfaisantes.

Le fait d'avoir la capacité de répondre aux questions fournit précisément les fondations de l'optimisation  en continue de l’informatique. Il est alors possible de réduire les dépenses d'investissement initial et continu, les dépenses d'exploitation, de sorte de continuer à réaliser des profits, et plus encore. En effet le SDDC appréhende plusieurs problématiques de l’entreprise et de son informatique, en optimisant les ressources des systèmes d’engagement client tout déployant et mettant à jour les nouvelles applications plus rapidement. En outre, le  SDDC répond plus rapidement aux pics d’activité et prévient les pannes.
La méthodologie permet l’alignement des activités et des analyses informatiques pour l’optimisation IT de l’entreprise et ainsi :
  • Corréler activités et performances IT,
  • Mieux comprendre comment les changements des processus métiers impactent l’informatique,
  • Comprendre et optimiser les coûts par business unit/les processus et les technologies,
  • Mieux comprendre les performances à travers l’empilement des technologies

Des analyses IT automatisées et alignées

L’automatisation des analyses à travers toutes ces sources de données, crée une plate-forme de gestion flexible et adaptable pour les environnements SDDC dynamiques, transformant de manière importante les données brutes ou premières en des informations concrètes pour l’informatique.
Les décisions se prennent sur la base d’informations prédictives des performances que l’entreprise peut intégrer à ses indicateurs. Des prévisions fiables sur le temps de réponse (latence) vous indiquant quels services seront à court de ressources, quand, et pourquoi permettent de gagner en efficacité.
Ce pilotage permet une gestion financière automatisée en calculant les coûts totaux des applications ainsi que l’intégration des risques et des données de gestion. Il est possible de mettre automatiquement en équilibre les coûts actuels et futurs avec la performance et la capacité d’utilisation du serveur/performance du serveur virtuel, les coûts des actifs, les services, le CMDV avec les données relatives au coût de l’énergie.
Les analyses portent également sur l’énergie allouées à l’informatique et définir exactement la consommation de chaque application.
L’analyse automatisée des causes facilite l’obtention de SLA élevées et même au delà. Ceci en analysant le temps de réponse des applications et en les comparant à vos SLA y compris sur les serveurs, les serveurs virtuels, le réseau, le stockage.