US / Europe : comment les réseaux étendus ont été optimisés

Les entreprises européennes et américaines ont adopté des approches différentes pour l'optimisation de leur réseau étendu. Mais leur convergence semble aujourd'hui s'amorcer.

Ces différences étaient dues à un certain nombre de facteurs.

Pourquoi ces différences ?

Ces divergences entre les deux continents sont essentiellement liées à deux facteurs. D'une part, le coût de la bande passante est supérieur en Europe. Les tarifs restent basés sur la consommation ou la classe de service MPLS. Par contre, aux États-Unis, la tarification est le plus souvent forfaitaire. Certaines entreprises obtiennent même de leur opérateur une garantie de continuité de service sans frais supplémentaires.

D'autre part, les relations entre les entreprises et leur opérateur sont différentes. Le nombre d'entreprises achetant des services administrés à leur opérateur de télécommunications est beaucoup plus important en Europe qu'aux États-Unis. Selon des analystes, les opérateurs gèrent 70 % des routeurs des entreprises en Europe, contre seulement 30 % aux États-Unis.

Quant aux différences entre les modèles tarifaires, elles sont probablement liées en grande partie, en Europe, à l'histoire des "Postes, télégraphes et télécommunications" (PTT), en tant que monopoles d'État. Chaque pays avait son propre service des PTT avec sa propre structure tarifaire, basé sur la consommation. Lorsque Internet est apparu et que le protocole IP a gagné la guerre contre le protocole ATM, les PTT ont conservé leur modèle de tarification basé sur la consommation. De plus, le marché européen, relativement plus régulé, n'a pas connu la course aux prix les plus bas sur la bande passante qui a eu lieu aux États-Unis dans les années 90.

Contrairement à ce qui s'est passé en Europe, l'éclatement du "Bell System" détenu par AT&T a éliminé le monopole américain des PTT au moment où le protocole TCP/IP a commencé à conquérir les réseaux étendus des entreprises. Les marchés américains du capital risque ont réitéré ce qu'ils avaient si bien fait dans les années 90, à savoir créer des milliers de nouveaux fournisseurs d'accès Internet et renforcer la capacité des réseaux fédérateurs.

La tarification forfaitaire résulte d'une concurrence accrue et des apports de fonds en capital-risque. Le dimensionnement de réseau étendu est rapidement devenu un impératif de base et, faute d'une rentabilité suffisante, la plupart des prestataires de services ont été incapables d'innover pour étendre leurs offres de services au-delà de la seule bande passante. Les entreprises américaines ont ainsi été amenées à considérer les services Internet et de réseau étendu comme des services de base et des centres de coûts.

Lorsque les FAI se sont trouvés à court d'argent à la fin des années 90, ayant épuisé les fonds de leurs investisseurs, et suite à l'éclatement de la bulle Internet fin 2000, seuls les acteurs du marché dont les coûts de structure étaient les plus bas ont perduré. Le principe des économies d'échelle a ensuite déterminé ceux appelés à devenir des "opérateurs de télécommunications historiques". Aujourd'hui, nous nous retrouvons avec une poignée de sociétés de télécom/datacom intégrées aux États-Unis, qui ont surmonté l'éclatement de la bulle et recherchent des solutions innovantes pour offrir aux entreprises des services dépassant le cadre du "transport de bits de données".

Pendant que les opérateurs américains s'épuisaient mutuellement avec leurs remises tarifaires, les opérateurs européens ont forgé des relations de partenariat avec leurs clients professionnels. Forts de flux de revenus plus rentables et plus prévisibles, ils ont été en mesure d'investir davantage dans des services administrés. Les opérateurs européens ont gagné la confiance de leurs clients et acquis un savoir-faire dans le domaine de la fourniture de services administrés, que les opérateurs américains commencent seulement à développer.

Bien sûr, le revers de la médaille est que les entreprises américaines, plus autonomes, ont développé leur propre savoir-faire en gérant leur réseau étendu. Certaines entreprises ont réalisé des investissements conséquents dans leur réseau étendu et leurs ressources humaines.

Autre différence importante : l'externalisation informatique a eu un impact plus important aux États-Unis. La charge de travail par employé, tant sur le plan opérationnel que du support, est aujourd'hui beaucoup plus lourde qu'il y a 10 ans. Par conséquent, de nombreux administrateurs de réseau règlent constamment les problèmes de façon réactive, ce qui leur laisse peu de temps pour travailler sur des projets à long terme.

Approche tactique

Les entreprises américaines ont donc adopté une approche tactique, qui consiste à traiter les problèmes avec des solutions spécialisées. En dépit des avantages à court terme qui en résultent, les tactiques seules ne sont pas payantes à longue échéance. Les entreprises ont besoin d'une stratégie solide pour guider leurs investissements informatiques au fil du temps. L'ère Internet nous a appris que l'achat du dernier équipement de réseau le plus en vogue n'a pas de lien direct avec l'amélioration des fonctions métiers. Des directeurs financiers ont pris à coeur de tirer parti de cet enseignement et font pression sur leur département informatique pour que leurs investissements soient plus stratégiques.

L'accélération est une technologie en pleine croissance, et ce pour de bonnes raisons. Elle peut s'avérer très efficace pour la résolution de problèmes tactiques. La mise en mémoire cache, la compression, les accusés de réception du CIFS local et la manipulation des fenêtres TCP peuvent tous être des remèdes très efficaces. Ceci dit, au fil du temps, le problème réapparaît ailleurs et l'absence de coordination dans les principaux produits d'accélération ne tarde pas à engendrer, à elle seule, de nouveaux problèmes à résoudre.

Une approche plus stratégique

Elle consiste à permettre l'accélération des applications et à la contrôler dans le cadre d'une approche visant la réalisation des objectifs en matière de performance applicative. Il s'agit en effet de garantir le bon fonctionnement des applications, surtout de celles qui sont les plus importantes pour l'entreprise. Pour ce faire, une approche et une architecture technique unifiées sont indispensables.

Ceci nous conduit au concept des accords de niveau de service (SLA) applicatifs. Si les entreprises européennes ont été plus lentes à exploiter certains des avantages à court terme de l'accélération, elles ont en revanche porté leur attention sur le long terme. Plusieurs prestataires de services européens offrent déjà à leurs clients des SLA applicatifs. De plus, certaines entreprises proposent même des SLA à leurs clients internes. Les SLA applicatifs permettent d'aborder l'infrastructure informatique sous un angle stratégique. Ils réunissent le département informatique, les prestataires de services et les utilisateurs autour d'un impératif : fournir aux utilisateurs des services de qualité, leur permettant d'effectuer leur travail. En définitive, tout ce qui compte dans le domaine informatique, c'est une bonne expérience de l'utilisateur, bien entendu à un coût raisonnable et avec des niveaux élevés de disponibilité et de fiabilité.

Tandis que les réalités économiques incitent les entreprises et les prestataires de services à resserrer leurs liens et investir de manière plus stratégique, il existe de nombreux problèmes à court terme devant être traités maintenant. Ainsi, à la lumière de l'expérience des entreprises européennes et américaines, nous pouvons conclure que les entreprises doivent viser le bon fonctionnement de leurs applications tant aujourd'hui que demain.

Test connexion