Des réseaux ou systèmes
capables non seulement d'identifier sans intervention
humaine les problèmes qui surviennent, mais aussi
de leur apporter une réponse et de mettre en oeuvre
cette dernière : de la science-fiction? Pas vraiment,
car la technologie permet aujourd'hui par exemple d'automatiser
avec finesse la recherche d'anomalies, ou encore d'établir
et d'exploiter une base de données suffisamment
riche regroupant un éventail de solutions dans
lesquelles, en fonction du besoin, il est possible de
puiser.
Disparates,
ces outils constituent les prémisses d'une architecture
dont la philosophie consiste dans l'autorégulation.
Depuis plus d'un an déjà, IBM s'attache
à mettre en oeuvre ce type d'architecture, au
travers du concept d'autonomic computing - un
terme qui fait référence aux capacités
d'adaptation et d'autoguérison des organismes
multicellulaires.
Mythes
et réalités de l'autonomic computing
Derrière
ce voeu pieu qui consiste à promouvoir une vision
de l'informatique avec laquelle bien peu seront en désaccord
- quel responsable réseau ou système ne
souhaite pas que des tâches fastidieuses soient
automatisés et traitées de manière
appropriée, sans son intervention? - se cache
toutefois une importante difficulté: la terminologie
utilisée, tout comme l'analogie faite avec le
vivant, ne doivent pas faire penser qu'il s'agit d'un
ensemble de technologies entièrement nouvelles
et révolutionnaires.
Car, à y bien regarder,
la frontière entre des fonctionnalités
dites "autonomes" et des applications (bien)
concues dans l'optique de simplifier la vie des administrateurs
est particulièrement ténue : ne s'agit-il
pas d'adapter les outils aux besoins d'automatisation,
de coopération entre applications, bien plus
que de concevoir des logiciels "intelligents"
- avec tout ce que ce terme a d'ésotérique
et de connoté?
Pour prendre un exemple
classique hors du monde de l'informatique, citons l'ABS
(Anti-lock braking system) qui équipe
certaines de nos voitures: voici une fonction "autonome"
(en cas de freinage brusque, l'ABS permet aux roues
de pouvoir pivoter et changer de direction) bien utile
et qui n'a rien de bien sorcier.
Ainsi, il s'agit surtout
d'adopter une vision globale, systémique, de
l'administration systèmes et réseaux -
voire applicative -, ce qui constitue bien entendu la
principale difficulté de l'autonomic computing.
Des
exemples parfois anciens, des travaux en cours
Dans l'informatique,
les fonctions "autonomes" ne datent pas d'aujourd'hui,
comme nous l'avons laissé entrevoir plus haut:
technologie SMART (Self-Monitoring, Analysis &
Reporting Technology) pour les disques durs - par
exemple -, spiders des moteurs de recherche,
"agents intelligents", etc.
Plus récemment,
IBM a proposé (notamment) deux produits disposant
du caractère "autonome": la version
8 de DB2, d'abord, qui supervise l'usage mémoire
du moteur de données et alerte l'administrateur
si cet usage apparaît anormal; l'outil Tivoli
Risk Manager, également, permettant de prévenir
les administrateurs des atteintes potentielles à la
sécurité.
Bien sûr, on ne peut
parler, dans les deux cas, d'autoréparation:
l'administrateur concerné est averti et doit
prendre des mesures. Il s'agit plutôt de capacités
"d'auto-diagnostic", ce qui est déjà
beaucoup.
L'annonce par IBM, lundi 21
octobre, de la création d'un groupe de recherche
et développement autour de l'autonomic computing,
devrait permettre d'aller plus loin, et assurer à
"Big Blue" de garder son avance - à la
fois conceptuelle et, désormais, en termes de réalisations
concrètes - dans ce domaine.
|