Les services informatiques à l’heure du Cloud : réussir grâce à une politique « zéro défaut »

Si de nombreuses entreprises ont déjà compris les avantages du Cloud computing, aucune d’entre elles ne sera jamais prête à mettre en péril l’accès, le traitement, et la sauvegarde de ses données critiques.

La force du débat initié sur la fiabilité du Cloud rappelle qu'une réflexion sur la continuité et la qualité de services reste nécessaire. Assurer et soigner la qualité des services offerts à ses clients n’est plus un avantage compétitif mais une nécessité.
La qualité de service informatique représente la conformité d'un service à répondre aux exigences d'un client, qu'il soit externe ou interne. La difficulté est de mesurer précisément cette qualité de service. Il faut distinguer le service attendu (les besoins des utilisateurs), le service rendu et le service perçu.
La communication joue un rôle important : les équipes informatiques ont l’obligation d’expliquer ce qu'elles font, être transparentes sur les engagements comme les délais. Les contrats d'engagement de service permettent de "cadrer" le travail des uns et l'attente des autres.

Le Cloud, challenge des entreprises de services

Omniprésent, le Cloud est un exemple de technologie « à risques ». Les interruptions de service peuvent coûter cher. Pour répondre aux inquiétudes des entreprises, les fournisseurs de Cloud proposent des stratégies « zéro incident ». Cela signifie, selon la définition du Harvard Research Group, un niveau de disponibilité des systèmes de 99,999 %, soit au maximum cinq minutes de panne par an (hors accords régissant les nouvelles versions, les mises à jour ou les migrations). On en est loin : avec 7,5 heures d’interruption par an, le taux de disponibilité des services observés par l’IWGCR [i] est « seulement » de 99,9 %.

Cela interdit toute interruption des équipements. Ainsi, des systèmes RAID (regroupement redondant de disques indépendants) mettront les données en miroir automatiquement sur, au minimum, deux supports de stockage distincts en parallèle. Une panne de l’un d’eux sera alors invisible de l’utilisateur. On éliminera les points uniques de défaillance (SpoF, selon leur acronyme anglais)susceptibles d’entraîner l'arrêt complet des opérations en cas de panne, et protéger les datacenters contre une défaillance catastrophique par le biais d'une ASI (alimentation sans interruption). Les systèmes doivent aussi être capables de récupérer automatiquement d’éventuelles lacunes de traitement en répétant toutes les étapes qui n’auraient pu être effectuées à cause de la défaillance d'une application.

Des erreurs inévitables mais une politique « zéro défaut »

Des erreurs peuvent arriver lors de la mise en œuvre d’un projet informatique. Plusieurs facteurs en sont généralement à l’origine : les erreurs humaines à cause de l’absence de formation (16 %), des défaillances de logiciels (50 %) ou matériels (23 %) non détectées, une mauvaise gestion des difficultés, des failles de sécurité ou encore un manque de redondance des matériels. Mais en fin de compte, pour les clients, chaque erreur est une erreur de trop.
Cela signifie pour les fournisseurs de services informatiques que leur seuil de tolérance doit être encore plus bas que celui de leurs clients. Il est nécessaire de contrecarrer à temps toute source d’erreur de façon transparente. Si malgré tout un problème survient, il s’agit alors de détecter la source le plus vite possible et de la traiter, afin de respecter les délais du projet, la qualité de la prestation, mais également les contraintes budgétaires.
Pour chaque cas particulier, une analyse rapide des erreurs et de leurs causes est indispensable. Les résultats alimentent ensuite des bases de données pour mieux gérer les projets futurs. C’est ainsi que les prestataires de services peuvent optimiser de manière permanente et durable les processus et garantir un maximum de qualité à leurs clients.

Des hommes et une gouvernance pour prévenir les risques d’incidents

Pour répondre à cet enjeu, il est indispensable que les fournisseurs de service informatique s’engagent à fournir à leurs clients  l’assurance de l’absence d’incidents et le respect des délais prévus en début de contrat.

Cinq facteurs sont à prendre en considération dans la poursuite des efforts de livraison dans les temps et au niveau de la qualité des services informatiques :

  • L’organisation de contrôle de qualité tout au long du projet en réponse aux attentes des clients,
  • Une  gouvernance claire et un modèle de collaboration interne et externe optimisés,
  • La mise à disposition d’une force de travail qualifiée et formée,
  • La volonté de dépasser les standards définis,
  • L’automatisation des tâches répétitives pour limiter les erreurs.

Enfin, le « zéro défaut » passe par le professionnalisme des salariés. Les fournisseurs de Cloud sont chargés de veiller à développer, via leurs formations et leurs processus, une culture d’entreprise tournée vers la qualité, au niveau mondial. Leur personnel devra être capable d’éliminer les causes possibles d’incident (conformément à l’adage « mieux vaut prévenir que guérir ») et d’exploiter les incidents constatés pour éviter leur reproduction. Sur le plan de l’organisation, une équipe centralisée de spécialistes pourra être mobilisée très vite pour lancer les processus de récupération en cas d’incident.
Les entreprises souhaitent disposer d’une infrastructure performante et hautement disponible sur laquelle de nombreux utilisateurs peuvent se connecter simultanément. Si le « zéro incident » absolu ne sera jamais atteint, il est indispensable pour les fournisseurs de services de mettre en place une politique et un plan d’engagement clairs pour leurs clients. Un taux de disponibilité des solutions de 99,999 %, et même au-delà, n'est pas impossible. Tel devrait désormais être l’objectif visé par les entreprises quand elles signent des accords de niveau de service avec leurs fournisseurs.

Autour du même sujet