Elément incontournable d'une bonne qualité de service, la compression des données peut néanmoins buter sur des flux récalcitrants. Tour d'horizon de l'offre actuelle. (Vendredi 20 février
2004)
La qualité de service
(QoS) repose sur des critères bien définis
(latence, gigue, perte de données, disponibilité
de la bande passante) et peut s'envisager au niveau applicatif,
réseau ou de la couche "transport" (lire
notre article).
La compression des données TCP/IP
(flux FTP, HTTP) - au sein d'un réseau VPN (réseau
privé virtuel) ou d'un WAN
(réseau étendu) - est un des outils au service de
l'amélioration de cette qualité de service. Certains
acteurs du marché se sont d'ailleurs spécialisés
sur ce créneau, d'autres l'intègrent comme module
à part entière dans leur offre, module que l'on peut
activer à la demande et paramétrer séparément
(cf notre tableau ci-dessous).
La
compression ne fait cependant pas tout. Elle contribue
à l'accélération des transferts de
flux mais n'est optimale que pour certains d'entre eux.
Les transferts de fichiers et certains flux HTTP sont
ainsi fortement compressibles, les gains pouvant atteindre
des coefficients de compression situés entre 2
et 5 voire, dans certains cas, 2 et 10.
Mais
d'autres flux - par leur structure même - résistent
à la compression, notamment les flux sécurisés
(HTTPS) et ceux émanant d'échanges avec
les bases de données (Oracle/SQL). Qui plus est,
la compression n'est rien si, en amont, les flux ne sont
pas aiguillés en fonction de leur degré
de priorité. On en revient donc à la nécessité
de considérer la compression comme un élément
nécessaire - mais non suffisant - d'une politique
globale de gestion de la qualité de service.
Utilise
les technologies de cache historique des flux
et d'optimisation des transferts de paquets. Optimisation
du trafic d'un site central. Fonctionne uniquement
en mode mono-site. La compression se situe au
niveau 7 (applicatif) et ne gère que les flux
sortants. L'optimisation se situe, selon le fabricant,
à 50% des flux en moyenne, avec des pointes
à 80, voire 90%.
Combine
la compression des données et leur mise
en cache, pour les flux IP et non IP (approche
multi protocoles). Utilise aussi la technique
d'agrégation de données pour réduire
le surplus de données causé par
l'envoi de nombreux paquets courts à travers
un réseau étendu.
L'architecture
brevetée "Adaptive Connection Compression
and Multiplexing at Layer 5 (ACM5)" d'ITWorx
s'attaque elle aussi aux redondances dans les
flux. Le boîtier se distingue par une rapide
configuration des sites distants et propose une
interface d'administration simple mais intuitive.
Spécialiste
de la qualité de service. Couple plusieurs
techniques de compression au sein d'un même
boîtier (mise en cache fragmentée,
algorithmes de compression multiples, compression
des headers). Utilise également
la technologie dite de "management actif
des tunnels" pour les environnements étendus.
Les
technologies propriétaires créées
par Peribit sont issues de la recherche sur les
séquences ADN, ce qui débouche sur un algorithme
qui détonne de ceux couramment rencontrés
sur le marché (dont le fameux "Lempel-Ziv-Welch",
alias LZW, l'algorithme Huffman ou bien encore
Zlib). La technologie brevetée et baptisée
Molecular Sequence Reduction' (MSR) permet, selon
le fabricant et éditeur, de s'attaquer
- en les compressant - aux 70% à 90% des données
circulant sur le réseau qui sont de nature répétitive.
Redline
Networks
Appliance
Cette
gamme de boîtier inclut des fonctionnalités
de compression efficaces (T|X et E|X Web I/O Accelerators).
La
fonction compression des données est une des quatre
fonctionnalités des solutions Streamcore System,
société française. La compression
repose sur des techniques de tunneling au niveau
de la couche 3, entre deux ou plusieurs équipements
(gestion multi-tunnels). Les taux de compression
vont de 2 à 5.