Qu'est-ce que l'hypermédia ? Pour certains,
il s'agit simplement de la possibilité d'accéder à
d'autres ressources que du texte via des liens hypertextes. Mais pour
de nombreux chercheurs qui travaillent sur ce paradigme, la définition
englobe d'autres paramètres. Parmi ceux-ci, la représentation
d'une application et des objets d'informations qui y sont associé
de façon non linéaire, c'est à dire dans un ordre
qui n'a pas été défini de manière rigide.
Quoi qu'il en soit, il paraît difficile de se faire une idée
précise du sujet, puisque des divergences d'opinion subsistent
parmi les sommités. Malgré cela, l'un des dénominateurs
communs des réflexions menées est de considérer l'hypermédia
comme un socle pour des interfaces évoluées.
Maintenant, vous souvenez-vous du concept d'Ubiquitous
Computing ? Nous avions décliné le sujet dans un précédent
article de la même rubrique.
Le
rêve de l'informatique omniprésente, dont Microsoft et d'autres
prévoient qu'elle envahira nos environnements familiers d'ici 10
ou 15 ans, nécessite d'autres percées que la simple miniaturisation
des éléments informatisés et leur enfouissement dans
notre cadre de vie. La communication entre ces composantes éparses
pourrait être régie par des micro-ondes telles que celles
à la norme Wi-Fi, et l'on voit bien que ce n'est pas là
que le bât blesse.
15 ans devant, 30 ans derrière
Dans un document de Microsoft Research
à ce sujet, la R&D de la firme exposait un exemple qu'elle
considérait comme l'un des plus complexes : deux personnes assises
l'une en face de l'autre animent une discussion qui est enregistrée
par des capteurs. Après une série de traitements en temps
réel s'effectuant dans le laps de temps le plus court possible,
une vidéo s'affiche sur l'écran mural multi-fonctions (télévision,
borne Internet, bibliothèque multimédia...), qui vient compléter
le sens de la discussion.
Si cet exemple a été considéré comme complexe
par des chercheurs, ce n'est pas en raison de la miniaturisation qui existe
déjà sous forme de prototypes réels. Ce n'est pas
non plus à cause de la communication dont les standards de fait
devraient s'imposer d'ici quelques années. Enfin, ce n'est visiblement
pas faute de la performance des systèmes de
reconnaissance vocale qui n'apparaîssent, il est vrai, pas encore
tout à fait au point. Avant que l'ordinateur ne soit capable d'une
réactivité pertinente et proactive, il lui faut surtout
être capable de comprendre les concepts dans une variété
de situations et d'expressions.
Retour à
Xanadu : le Web mis à l'index ?
La notion de concept pourrait donc se marier sans complexe avec l'hypermédia.
A noter que le terme interpelle en soi par sa proximité linguistique
avec les liens hypertextes d'un côté, et le multimédia
de l'autre. L'association devient évidente avec l'élément
contextuel. Il s'agit, en complément d'une situation donnée
faite d'objets multimédias qui définissent un contexte,
de servir des éléments en relation qui puissent être
du texte, de l'image, de l'audio/vidéo ou n'importe quelle combinaison
de différents types médias accessibles. Cette volonté
se retrouve chez l'éditeur Autonomy,
dont l'une des spécialités est précisément...
les moteurs de concepts. En appui sur des algorithmes d'analyse (Shannon,
Bayes...), son moteur de recherche affiche en permanence des liens contextuels
vers des ressources qu'il considère proches d'un document non structuré
en cours de saisie. Parmi les autres orientations de cet éditeur
: la structuration de documents basés sur une forme de reconnaissance
vocale.
Malgré la complexité affichée, l'hypermédia
n'est donc pas une idée nouvelle. Déjà, il y a 30 ans,
le visionnaire Ted Nelson, expert es-interfaces homme/machine, avait commencé
à imaginer les contours d'un système alternatif ou concurrent
du Web (lire
article sur le site développeurs d'IBM). Baptisé Xanadu,
celui-ci rejette en bloc bon nombre de principes adoptés dans
les faits par les organismes de normalisation comme le W3C. Selon le scientifique,
le Web représente typiquement un concentré de ce qu'il aurait
fallu éviter pour créer un espace réellement ouvert
au partage de la connaissance.
La conjonction du protocole HTTP et du langage de description HTML rend
possible les liens hypertextes, appelés ainsi car leur fonction
est de donner accès à des ressources situées en des
emplacements divers.
Entre autres objections, Ted Nelson critique le fait que ces liens soient
unidirectionnels et ne tiennent pas compte des changements qui peuvent
intervenir sur les documents eux-mêmes et dans leur emplacement.
En abandonnant l'idée d'une structure hiérachique qu'il
juge anti-progressiste, son système théorique Xanadu combine
en une seule plate-forme des liens bidirectionnels qui demeurent même
lorsque les documents changent de place, avec un historique des versions
et des profils d'accès. Pour Ted Nelson, les implémentations
du langage XML ne sont qu'une suite de rustines à un système
inadapté et dépassé.
L'interactivité
? Oui, mais entre les processus...
Internet aurait-il donc pu davantage être
taillé pour la communication hypermédia ? Possible... Mais
en l'état de la situation actuelle, le langage XML et les bases
de données peuvent offrir une partie des fonctions (historique
des versions et gestion des profils...) qui servent de socle à
de la collaboration sur du contenu, et font défaut aux technologies
Web au sens strict. En attendant, toutes les architectures de tous les
sites web ne sont pas conçues ainsi. Et c'est cela que déplore
l'inventeur de Xanadu.
Fondé en 1996, l'OHSWG
(Open Hypermedia Systems Working Group) a également pointé
du doigt ces lacunes de HTTP, et en souligne une autre : le protocole
du Web n'a pas été conçu pour accéder à
des portions de documents. Selon l'exemple cité, il ne peut extraire
les dix dernières secondes d'une vidéo de deux heures
pour n'afficher que celles-ci. Parmi les travaux des membres de l'OHSWG,
l'on retiendra l'usage de "l'hypermédia ouvert" pour
faciliter et enrichir les possibilités de l'intégration
de contenus. Un livre blanc (deuxième de la liste sur
cette page) explique ainsi comment un référentiel de
contextes XML peut servir à générer des méta-données
sur de l'information existante. Le projet HyperDisco
va encore plus loin, puisqu'en faisant interagir les processus, il prétend
pouvoir intégrer des applications les unes avec les autres sans
les obliger à normaliser leurs modèles d'intégration.
Dans le même temps, Autonomy semble développer une approche
similaire à travers son système middleware IDOL
(Intelligent Data Operating Layer) qu'il définit comme une
couche essentielle "d'intégration par la compréhension"
au coeur de l'architecture de sa plate-forme. Sous une forme évoluée,
un tel système doit pouvoir accéder à tous les types
de sources et effectuer de l'intégration à la demande. Et
ceci, grâce au recours à des technologies d'analyse sur les
formats d'entrée/sortie des applications. Bref: si les interfaces
contextuelles du futur peuvent paraître d'un abord très simple
pour l'utilisateur, les technologies sous-jacentes se révèlent
autrement complexes. Et parmi les éditeurs dans la course, il faudra
surveiller de près Autonomy.
[François Morel, JDNet] |