Les services informatiques à l’heure du Cloud : réussir grâce à une politique « zéro défaut »
Si de nombreuses entreprises ont déjà compris les avantages du Cloud computing, aucune d’entre elles ne sera jamais prête à mettre en péril l’accès, le traitement, et la sauvegarde de ses données critiques.
La force du débat initié sur la fiabilité du Cloud rappelle qu'une réflexion sur la continuité et la qualité de services reste nécessaire. Assurer et soigner la qualité des services offerts à ses clients n’est plus un avantage compétitif mais une nécessité.
La qualité de service informatique représente la conformité d'un service à
répondre aux exigences d'un client, qu'il soit externe ou interne. La
difficulté est de mesurer précisément cette qualité de service. Il faut
distinguer le service attendu (les besoins des utilisateurs), le service rendu
et le service perçu.
La communication joue un rôle important : les équipes
informatiques ont l’obligation d’expliquer ce qu'elles font, être transparentes
sur les engagements comme les délais. Les contrats d'engagement de service
permettent de "cadrer" le travail des uns et l'attente des autres.
Le Cloud, challenge des entreprises de services
Omniprésent, le Cloud est un exemple de technologie « à risques ». Les interruptions de service peuvent coûter cher. Pour répondre aux inquiétudes des entreprises, les fournisseurs de Cloud proposent des stratégies « zéro incident ». Cela signifie, selon la définition du Harvard Research Group, un niveau de disponibilité des systèmes de 99,999 %, soit au maximum cinq minutes de panne par an (hors accords régissant les nouvelles versions, les mises à jour ou les migrations). On en est loin : avec 7,5 heures d’interruption par an, le taux de disponibilité des services observés par l’IWGCR [i] est « seulement » de 99,9 %.
Cela interdit toute interruption des équipements. Ainsi, des systèmes RAID (regroupement redondant de disques indépendants) mettront les données en miroir automatiquement sur, au minimum, deux supports de stockage distincts en parallèle. Une panne de l’un d’eux sera alors invisible de l’utilisateur. On éliminera les points uniques de défaillance (SpoF, selon leur acronyme anglais)susceptibles d’entraîner l'arrêt complet des opérations en cas de panne, et protéger les datacenters contre une défaillance catastrophique par le biais d'une ASI (alimentation sans interruption). Les systèmes doivent aussi être capables de récupérer automatiquement d’éventuelles lacunes de traitement en répétant toutes les étapes qui n’auraient pu être effectuées à cause de la défaillance d'une application.
Des erreurs inévitables mais une politique « zéro défaut »
Des erreurs peuvent arriver lors de la mise en œuvre d’un projet
informatique. Plusieurs facteurs en sont généralement à l’origine : les
erreurs humaines à cause de l’absence de formation (16 %), des défaillances de
logiciels (50 %) ou matériels (23 %) non détectées, une mauvaise gestion des
difficultés, des failles de sécurité ou encore un manque de redondance des matériels. Mais en fin de compte, pour les clients,
chaque erreur est une erreur de trop.
Cela signifie pour les fournisseurs de services informatiques que leur
seuil de tolérance doit être encore plus bas que celui de leurs clients. Il est
nécessaire de contrecarrer à temps toute source d’erreur de façon transparente.
Si malgré tout un problème survient, il s’agit alors de détecter la source le
plus vite possible et de la traiter, afin de respecter les délais du projet, la
qualité de la prestation, mais également les contraintes budgétaires.
Pour chaque cas particulier, une analyse rapide des erreurs et de leurs
causes est indispensable. Les résultats alimentent ensuite des bases de données
pour mieux gérer les projets futurs. C’est ainsi que les prestataires de
services peuvent optimiser de manière permanente et durable les processus et
garantir un maximum de qualité à leurs clients.
Des hommes et une gouvernance pour prévenir les risques d’incidents
Pour répondre à cet enjeu, il est indispensable que les fournisseurs de service informatique s’engagent à fournir à leurs clients l’assurance de l’absence d’incidents et le respect des délais prévus en début de contrat.
Cinq facteurs sont à prendre en considération dans la poursuite des efforts de livraison dans les temps et au niveau de la qualité des services informatiques :
- L’organisation de contrôle de qualité tout au long du projet en réponse aux attentes des clients,
- Une gouvernance claire et un modèle de collaboration interne et externe optimisés,
- La mise à disposition d’une force de travail qualifiée et formée,
- La volonté de dépasser les standards définis,
- L’automatisation des tâches répétitives pour limiter les erreurs.
Enfin, le « zéro
défaut » passe par le professionnalisme des salariés. Les fournisseurs de
Cloud sont chargés de veiller à développer, via leurs formations et leurs
processus, une culture d’entreprise tournée vers la qualité, au niveau mondial.
Leur personnel devra être capable d’éliminer les causes possibles d’incident (conformément à l’adage « mieux vaut
prévenir que guérir ») et d’exploiter les incidents constatés pour éviter
leur reproduction. Sur le plan de l’organisation, une équipe centralisée de
spécialistes pourra être mobilisée très vite pour lancer les processus de
récupération en cas d’incident.
Les entreprises
souhaitent disposer d’une infrastructure performante et hautement disponible
sur laquelle de nombreux utilisateurs peuvent se connecter simultanément. Si le
« zéro incident » absolu ne sera jamais atteint, il est indispensable
pour les fournisseurs de services de mettre en place une politique et un plan
d’engagement clairs pour leurs clients. Un taux de disponibilité des solutions
de 99,999 %, et même au-delà, n'est pas impossible. Tel devrait désormais
être l’objectif visé par les entreprises quand elles signent des accords de
niveau de service avec leurs fournisseurs.