|
|
|
|
Un
nouveau mouvement important : l'évolution vers la
virtualisation...
par Alain
Lefebvre
Directeur
de la stratégie technique, eFORCE France (http//www.eforce.fr)
|
|
|
|
|
Avec le temps et les tournants qui ont affecté
l'histoire de l'informatique, le message principal a changé
subtilement...
Lors de l'époque du mainframe et de l'informatique
centralisée, le mot d'ordre était "compatibilité"
et cela s'est retrouvé aussi pendant les premiers
temps de l'ère du PC (pour avoir une chance de
se vendre, les machines et les logiciels devaient absolument
être "compatible IBM PC" et tous les acteurs
du marché affichaient cette étiquette).
Avec le tournant du client-serveur et des systèmes
distribués, changement d'exigence : ce n'est plus
la compatibilité qui compte, il faut surtout être
interopérable avec les autres éléments
du réseau. L'interopérabilité est
devenue le pivot de l'informatique en réseau à
tel point que le salon phare de cette époque s'appelait
Interop...
Aujourd'hui avec l'Internet, l'interopérabilité
est toujours nécessaire (indispensable même,
comment imaginer qu'on puisse s'insérer dans le
réseau sans interopérer avec tous les éléments
de l'infrastructure ?) mais plus suffisante : ce qu'on
demande désormais, c'est de la transparence, de
la virtualité !
Époque
|
Mot
d'ordre
|
Bénéfices |
Centralisée
|
Compatibilité
|
Les
applications n'ont pas à être réécrites
à chaque changement de génération
de systèmes. |
Client-serveur
|
Interopérabilité
|
Les
applications peuvent reposer sur des systèmes
distribués de différentes origines. |
Internet
|
Virtualité
|
Le
système d'informations peut être étendu
sur l'Internet en direction des partenaires et reposer
sur des applications louées tout en gardant
la cohérence d'ensemble. |
Vous devez mettre en place des mécanismes d'abstraction
qui vont faciliter le travail des autres avec vous, masquer
votre organisation, votre structure et donc votre complexité.
L'inverse est tout aussi vrai : vous allez vous interfacer
avec les intervenants qui vont vous faciliter la tâche,
ceux qui proposent des points d'entrée simples
et standards.
Cette transparence dans la distribution des traitements,
c'est cela qui va permettre une virtualisation totale
de votre système d'informations !
La notion de virtualisation est déjà à
l'oeuvre depuis quelques années au niveau de l'infrastructure
matérielle. Les réseaux d'entreprises qui
étaient autrefois strictement dédiés
reposent de plus en plus sur l'Internet à travers
les VPN (Virtual Private Network) qui permet d'utiliser
le réseau public de manière sécurisée
pour ses besoins privés. Même l'accès
Internet qui, auparavant, nécessitait un attachement
physique fixe est en train de muter avec des technologies
mobiles comme WiFi.
On constate la même évolution pour ce qui
est du stockage des données qui reposent de plus
en plus sur des systèmes spécialisés
(SAN et NAS). Ces systèmes offrent de plus en plus
une vision unifiée (virtuelle) de volumes attachés
physiquement à une multitude de serveurs.
Cette tendance lourde trouve sa confirmation ultime dans
l'émergence de la notion de Grid Computing qui
promet de rendre transparents les systèmes distribués
sur tous leurs aspects.
Ce qui est nouveau, c'est que la virtualisation ne se
limite plus aux infrastructures matérielles mais
commence à arriver au niveau logiciel également...
En effet, deux nouveaux concepts qui sont en train de
gagner du terrain traduisent ce tournant : l'intégration
des systèmes autour d'un bus de services (les architectures
orientées services basées sur l'utilisation
des Web services et des middlewares asynchrones) et les
sources de données fédérées
(qui permettent les requêtes réparties sur
des sources de données disparates -y compris non-structurées-).
Ces deux progrès majeurs (qui dérivent tous
les deux directement des avancées réalisées
dans le domaine des technologies XML) sont en train de
redéfinir la notion d'infrastructure logicielle.
En plus de ces changements positifs au niveau de l'infrastructure
logicielle qui ouvrent de nouvelles perspectives en matière
de distribution des systèmes (nous y reviendrons...),
une autre perçée en train de voir le jour
au niveau des architectures des applications : la notion
de systèmes autonomes (Autonomous Computing).
Il ne faut pas confondre les notions d'infrastructure
et d'architecture : la première est l'environnement
sur lequel on s'appuie, la seconde est l'organisation
de ce qu'on construit. En clair, on peut très bien
développer des applications monolithiques et centralisées
(architecture) sur des environnements très distribués
(infrastructure).
L'Autonomous Computing est clairement une proposition
d'architecture très distribuée (n tier)
mais qui respecte les contraintes des systèmes
hérités (Legacy Systems).
Oui, l'évolution
vers la virtualisation est importante car c'est elle qui
va achever d'ouvrir le système d'informations sur
l'Internet et permettre enfin le fonctionnement en entreprise
élargie.
|
Tribune publiée par
Alain Lefebvre
le 07 mars 2003.
|
|
|
|
Au sommaire de l'actualité
- Toutes les Tribunes
|
|
|
|