De zéro à héros : objectif indisponibilité zéro

Alors que le coût des indisponibilités continue de progresser, le point sur la manière dont les DSI tentent, à travers le monde, de réduire les indisponibilités programmées et inopinées.

Les indisponibilités de systèmes ont longtemps été à l’origine d’un stress considérable pour les DSI du monde entier. Alors que les entreprises de toutes tailles comptent plus que jamais sur leurs systèmes d’information, la moindre indisponibilité de service – en particulier inopinée – peut avoir un effet catastrophique sur les résultats financiers. Et selon Dunn & Bradstreet, 59 % des entreprises figurant au classement Fortune 500 connaissent au moins 1,6 heure d’indisponibilité chaque semaine !

 

Selon le cabinet Forrester, les cinq petites minutes d’indisponibilité de Google en août 2013 ont réduit le trafic Web mondial de 40% et coûté à l’entreprise rien moins que 500 000 dollars. Voilà un exemple clé de l’effet qu’une indisponibilité non programmée peut avoir sur les résultats d’une organisation, sans compter l’impact sur sa réputation. Les indisponibilités limitent la croissance, réduisent le chiffre d’affaires, et affectent la productivité. Mais un tel exemple ne sous-entend pas que le coût d’une indisponibilité n’est préoccupant que pour de grandes entreprises telles que Google. Les organisations de toutes tailles peuvent être affectées par l’indisponibilité d’un fournisseur de services.

 

Que l’on soit une petite entreprise ou une grande multinationale, il est vital pour toute organisation de disposer d’une stratégie pour identifier les causes d’une éventuelle indisponibilité. Et cela va plus loin : une fois celles-ci connues, les entreprises doivent mettre en place des plans pour se protéger d’une telle menace. Alors, il devient possible d’atteindre le but ultime de l’indisponibilité zéro.

 

Pour en savoir plus sur la manière dont les entreprises font face à ce défi, SUSE a commandité une étude* pour examiner les effets d’indisponibilités sur les organisations ainsi que les plans mis en place pour traiter ce risque. Le rapport a clairement mis en évidence l’écart entre le besoin d’une indisponibilité zéro et la quantité d’indisponibilités dont souffrent actuellement les entreprises. Sans surprise, l’indisponibilité zéro est un objectif pour de nombreuses DSI, mais il reste encore beaucoup à faire pour qu’il puisse être atteint

 

Près des trois quarts des responsables informatiques sondés ont indiqué que leur organisation considère qu’atteindre l’indisponibilité zéro de leur SI est un objectif important. Mais 89% d’entre eux s’attendent à souffrir d’indisponibilités pour leurs traitements les plus critiques. Les indisponibilités inopinées ont été rencontrées par 80% des sondés – à raison de plus de deux fois par an sur leur traitement le plus critique, en moyenne. La défaillance technique s’est avérée être la source d’indisponibilité non programmée la plus fréquente.

 

La bonne nouvelle est que plus de la moitié des sondés (54%) ont indiqué mettre en œuvre une stratégie pour réduire significativement les indisponibilités de systèmes dans l’année à venir. Près d’un cinquième des sondés (17%) disposent d’une telle stratégie, mais n’ont pas encore commencé à la mettre en œuvre.

 

Quelle est donc la solution ?

 

Les responsables informatiques sont de toute évidence préoccupés par les indisponibilités non programmées qu’ils ont rencontrées l’an passé. Ils sont en outre sous pression pour que cela ne se reproduise pas. Il est clair que la réduction des indisponibilités est une priorité pour les DSI et les responsables informatiques du monde entier. Mais les organisations n’appréhendent toujours pas l’indisponibilité zéro comme une possibilité réaliste, acceptant pour l’heure qu’au moins un petit niveau d’indisponibilité soit inévitable.

 

C’est une situation dans laquelle il est inacceptable de se trouver. Et il existe des techniques, ainsi que des technologies logicielles et matérielles, pour réduire les indisponibilités. Plusieurs mesures peuvent être prises en ce sens, qui ne nécessitent pas de revoir son infrastructure de fond en comble. A commencer par celles qui suivent :

  • Construire sur de solides fondations – Déployer le bon matériel et la bonne plateforme logicielle dès le départ est essentiel pour prévenir les indisponibilités : faire le bon choix peut permettre de gagner en stabilité et en disponibilité.
  • Minimiser les erreurs humaines – Malheureusement, les êtres humains commettent inévitablement des erreurs. Et cela vaut dans le domaine de l’administration d’infrastructures informatiques. Le meilleur moyen de réduire ce risque est de rendre les outils aussi simples d’utilisation que possible, afin de rendre leur exploitation plus sûre.
  • Développer des clusters – Les technologies de clusters sont communément utilisées de nos jours pour améliorer la disponibilité générale de systèmes en misant sur la redondance. En associant en cluster plusieurs serveurs redondants, il est possible d’obtenir une disponibilité plus élevée qu’avec un seul serveur.

De nos jours, la plupart des entreprises sont devenues hautement dépendantes de leurs systèmes d’information pour supporter leurs applications métiers critiques. Lorsqu’un système tombe, l’entreprise devient moins compétitive et perd des revenus.

 

Atteindre l’indisponibilité zéro est un objectif crucial pour les entreprises modernes, même s’il paraît encore irréaliste pour beaucoup. Cela ne devrait pas être le cas : il existe des mesures pratiques qu’il est possible de prendre pour avancer vers cet objectif. Mais disposer des bons outils est essentiel dans cette démarche. Et il n’y a qu’avec la sélection et une mise en œuvre correcte de ces outils que l’indisponibilité zéro pourra devenir une norme répandue.


* L’étude est basée sur le sondage de 105 responsables informatiques. Les résultats complets de l’étude peuvent être consultés à cette adresse