Journal du Net   Développeurs   Emploi   Management
 
 Linternaute   Journal des femmes   Copainsdavant 
 
 Séminaires   Evenements   Etudes 
Abonnements
 
RECHERCHER
 ANNUAIRES  Sociétés  Prestataires Carnet  Encyclopédie Progiciels Formations Fonds VOTRE HIGH TECH  Guides  Livres Prix Téléchargement 
 Chronique
Un nouveau mouvement important : l'évolution vers la virtualisation...
par Alain Lefebvre
Directeur de la stratégie technique, eFORCE France (http//www.eforce.fr)
 
          
 
Avec le temps et les tournants qui ont affecté l'histoire de l'informatique, le message principal a changé subtilement...
Lors de l'époque du mainframe et de l'informatique centralisée, le mot d'ordre était "compatibilité" et cela s'est retrouvé aussi pendant les premiers temps de l'ère du PC (pour avoir une chance de se vendre, les machines et les logiciels devaient absolument être "compatible IBM PC" et tous les acteurs du marché affichaient cette étiquette).

Avec le tournant du client-serveur et des systèmes distribués, changement d'exigence : ce n'est plus la compatibilité qui compte, il faut surtout être interopérable avec les autres éléments du réseau. L'interopérabilité est devenue le pivot de l'informatique en réseau à tel point que le salon phare de cette époque s'appelait Interop...

Aujourd'hui avec l'Internet, l'interopérabilité est toujours nécessaire (indispensable même, comment imaginer qu'on puisse s'insérer dans le réseau sans interopérer avec tous les éléments de l'infrastructure ?) mais plus suffisante : ce qu'on demande désormais, c'est de la transparence, de la virtualité !

Époque
Mot d'ordre
Bénéfices
Centralisée
Compatibilité
Les applications n'ont pas à être réécrites à chaque changement de génération de systèmes.
Client-serveur
Interopérabilité
Les applications peuvent reposer sur des systèmes distribués de différentes origines.
Internet
Virtualité
Le système d'informations peut être étendu sur l'Internet en direction des partenaires et reposer sur des applications louées tout en gardant la cohérence d'ensemble.

Vous devez mettre en place des mécanismes d'abstraction qui vont faciliter le travail des autres avec vous, masquer votre organisation, votre structure et donc votre complexité. L'inverse est tout aussi vrai : vous allez vous interfacer avec les intervenants qui vont vous faciliter la tâche, ceux qui proposent des points d'entrée simples et standards.
Cette transparence dans la distribution des traitements, c'est cela qui va permettre une virtualisation totale de votre système d'informations !

La notion de virtualisation est déjà à l'oeuvre depuis quelques années au niveau de l'infrastructure matérielle. Les réseaux d'entreprises qui étaient autrefois strictement dédiés reposent de plus en plus sur l'Internet à travers les VPN (Virtual Private Network) qui permet d'utiliser le réseau public de manière sécurisée pour ses besoins privés. Même l'accès Internet qui, auparavant, nécessitait un attachement physique fixe est en train de muter avec des technologies mobiles comme WiFi.

On constate la même évolution pour ce qui est du stockage des données qui reposent de plus en plus sur des systèmes spécialisés (SAN et NAS). Ces systèmes offrent de plus en plus une vision unifiée (virtuelle) de volumes attachés physiquement à une multitude de serveurs.
Cette tendance lourde trouve sa confirmation ultime dans l'émergence de la notion de Grid Computing qui promet de rendre transparents les systèmes distribués sur tous leurs aspects.

Ce qui est nouveau, c'est que la virtualisation ne se limite plus aux infrastructures matérielles mais commence à arriver au niveau logiciel également...
En effet, deux nouveaux concepts qui sont en train de gagner du terrain traduisent ce tournant : l'intégration des systèmes autour d'un bus de services (les architectures orientées services basées sur l'utilisation des Web services et des middlewares asynchrones) et les sources de données fédérées (qui permettent les requêtes réparties sur des sources de données disparates -y compris non-structurées-). Ces deux progrès majeurs (qui dérivent tous les deux directement des avancées réalisées dans le domaine des technologies XML) sont en train de redéfinir la notion d'infrastructure logicielle.

En plus de ces changements positifs au niveau de l'infrastructure logicielle qui ouvrent de nouvelles perspectives en matière de distribution des systèmes (nous y reviendrons...), une autre perçée en train de voir le jour au niveau des architectures des applications : la notion de systèmes autonomes (Autonomous Computing).
Il ne faut pas confondre les notions d'infrastructure et d'architecture : la première est l'environnement sur lequel on s'appuie, la seconde est l'organisation de ce qu'on construit. En clair, on peut très bien développer des applications monolithiques et centralisées (architecture) sur des environnements très distribués (infrastructure).
L'Autonomous Computing est clairement une proposition d'architecture très distribuée (n tier) mais qui respecte les contraintes des systèmes hérités (Legacy Systems).

Oui, l'évolution vers la virtualisation est importante car c'est elle qui va achever d'ouvrir le système d'informations sur l'Internet et permettre enfin le fonctionnement en entreprise élargie.

Tribune publiée par Alain Lefebvre le 07 mars 2003.

Au sommaire de l'actualité - Toutes les Tribunes

  Nouvelles offres d'emploi   sur Emploi Center
Auralog - Tellmemore | Publicis Modem | L'Internaute / Journal du Net / Copainsdavant | Isobar | MEDIASTAY

Voir un exemple

Voir un exemple

Voir un exemple

Voir un exemple

Voir un exemple

Toutes nos newsletters