01/12/2001
Comment
remédier au plantage des sites événementiels
Lors
de grands événements, de nombreux sites web doivent
gérer un flux de visiteurs inhabituel, voire démesuré.
Les pages demandées doivent pourtant être envoyées
rapidement. Pour cela, les concepteurs des sites attendent des
machines qu'elles puissent assumer cette montée en charge,
et des tuyaux (bande passante) qu'ils adaptent leur débit
pour éviter les bouchons.
Or, comme le souligne Philippe Martel, directeur de la division
Internet chez Colt, "il faut distinguer deux types d'événements
: programmés ou imprévisibles. Mais dans tous
les cas, on constate les mêmes phénomènes
(Rolland Garros, le Tour de France, la formule 1, etc) : la
montée en charge de ce type de site peut alors multiplier
par 10 et jusqu'à 50 l'audience habituelle. Les vrais
pics d'audience durent environ cinq heures, puis on constate
une première retombée significative, et enfin
un retour progressif à la normale sur une ou deux semaines."
Augmenter la bande passante ?
Alors,
les responsables de sites négocient le plus souvent la
possibilité avec l'hébergeur d'augmenter la taille
du tuyau vers leurs sites en fonction des besoins (par l'allocation
dynamique de bande passante). Ces offres sont d'ailleurs au
catalogue de nombreux hébergeurs pour des périodes
données avec un surcoût contractuel selon la durée.
"Pour un hébergeur, ce type de manipulation ne pose
aucun problème et peut s'effectuer très simplement,
d'autant plus lorsqu'il s'agit d'un opérateur internet.
Mais attention, cela est souvent insuffisant pour résoudre
le problème," précise P. Martel. En effet,
ce genre d'incident devrait plutôt inciter les concepteurs
de sites à identifier les goulets d'étranglement.
Comme expliqué ci-dessus, la bande passante peut en être
un. Toutefois, c'est le plus simple à résoudre.
Et
si le problème venait aussi (voire surtout) des applications
?
Lorsqu'un
logiciel contribue à ralentir les temps de réponse,
les décideurs doivent alors se demander si le service
rendu justifie vraiment cette perte d'efficacité, premier
grief des internautes.
"La course effrénée à la technologie
amène souvent les entreprises à faire des choix
technologiques complexes injustifiés. Pourquoi développer
un site totalement dynamique quand des pages statiques suffiraient.
Le serveur de bases de données peut très vite
saturer et engendrer des temps de réponse faramineux.
La mode qui consiste alors à ajouter des serveurs ne
résout pas forcément le problème. En effet,
le même moteur doit toujours traiter les requêtes
!" constate P. Martel. Il est vrai que dans cette situation,
allouer plus de bande passante est totalement inutile. Elargir
l'autoroute lorsque le guichet du péage ne laisse passer
les véhicules qu'au compte goutte ne va pas accélérer
le trafic...
Les
vertus des pages statiques
P. Martel apporte une première réponse en affirmant
: "De grands sites d'informations ont su faire le choix
du statique pour les pages principales, même si elles
sont générées à partir de données
stockées dans des bases. Alors, sur des événement
ponctuels, il est possible de négocier avec son hébergeur
un trafic plus important uniquement sur quelques pages statiques.
Par exemple, sur F1-live.com, l'audience est multipliée
par 40 les week-ends de grand prix, et souvent dès les
essais libres le jeudi soir. Les pages les plus demandées
restent pourtant la page d'accueil et trois ou quatre pages
(suivi, score,
)." Effectivement, diffuser des pages
statiques sur son serveur Internet n'empêche nullement
de stocker l'information dans une base de données. Quant
à la rotation des bandeaux publicitaires, les serveurs
spécialisés (en régie ou en interne) seront
beaucoup plus réactifs et moins pénalisants.
Eviter
la course à la technologie
Pourtant
de nombreux sites se contentent d'ajouter régulièrement
des serveurs et des routeurs, avec équilibrage de charge,
etc. "Justement, l'architecture réseau est l'autre
point délicat. Avec des applications trois tiers et du
middleware, plusieurs briques logicielles doivent collaborer
pour renvoyer une page HTML. Or les spécialistes du logiciel
se sont souvent mêlés d'optimisation réseau,
et le résultat est trop souvent décevant. A chacun
son métier ! Encore une fois, pourquoi partir sur des
architectures très lourdes, quand cela est rarement justifié.
Le syndrome de la course à la technologie fait toujours
des victimes !" conclut P.Martel
[José
DIZ, JDNet]
|