Ca existe ?
Open Hypermedia : les interfaces du futur conjuguées au présent
Le Web et ses liens hypertextes ne sont pas le summum de l'interactivité, mais une étape de perfectionnement de l'interface homme-machine. Un peu de multimédia et de la réactivité en plus, et le tour est joué ? Pas si simple, rétorquent les chercheurs. (Jeudi 28 février 2002)
     
Au sommaire de Ça existe ?

Qu'est-ce que l'hypermédia ? Pour certains, il s'agit simplement de la possibilité d'accéder à d'autres ressources que du texte via des liens hypertextes. Mais pour de nombreux chercheurs qui travaillent sur ce paradigme, la définition englobe d'autres paramètres. Parmi ceux-ci, la représentation d'une application et des objets d'informations qui y sont associé de façon non linéaire, c'est à dire dans un ordre qui n'a pas été défini de manière rigide. Quoi qu'il en soit, il paraît difficile de se faire une idée précise du sujet, puisque des divergences d'opinion subsistent parmi les sommités. Malgré cela, l'un des dénominateurs communs des réflexions menées est de considérer l'hypermédia comme un socle pour des interfaces évoluées.

Maintenant, vous souvenez-vous du concept d'Ubiquitous Computing ? Nous avions décliné le sujet dans un précédent article de la même rubrique.
Le rêve de l'informatique omniprésente, dont Microsoft et d'autres prévoient qu'elle envahira nos environnements familiers d'ici 10 ou 15 ans, nécessite d'autres percées que la simple miniaturisation des éléments informatisés et leur enfouissement dans notre cadre de vie. La communication entre ces composantes éparses pourrait être régie par des micro-ondes telles que celles à la norme Wi-Fi, et l'on voit bien que ce n'est pas là que le bât blesse.

15 ans devant, 30 ans derrière
Dans un document de Microsoft Research à ce sujet, la R&D de la firme exposait un exemple qu'elle considérait comme l'un des plus complexes : deux personnes assises l'une en face de l'autre animent une discussion qui est enregistrée par des capteurs. Après une série de traitements en temps réel s'effectuant dans le laps de temps le plus court possible, une vidéo s'affiche sur l'écran mural multi-fonctions (télévision, borne Internet, bibliothèque multimédia...), qui vient compléter le sens de la discussion.

Si cet exemple a été considéré comme complexe par des chercheurs, ce n'est pas en raison de la miniaturisation qui existe déjà sous forme de prototypes réels. Ce n'est pas non plus à cause de la communication dont les standards de fait devraient s'imposer d'ici quelques années. Enfin, ce n'est visiblement pas faute de la performance des systèmes de reconnaissance vocale qui n'apparaîssent, il est vrai, pas encore tout à fait au point. Avant que l'ordinateur ne soit capable d'une réactivité pertinente et proactive, il lui faut surtout être capable de comprendre les concepts dans une variété de situations et d'expressions.

Retour à Xanadu : le Web mis à l'index ?
La notion de concept pourrait donc se marier sans complexe avec l'hypermédia. A noter que le terme interpelle en soi par sa proximité linguistique avec les liens hypertextes d'un côté, et le multimédia de l'autre. L'association devient évidente avec l'élément contextuel. Il s'agit, en complément d'une situation donnée faite d'objets multimédias qui définissent un contexte, de servir des éléments en relation qui puissent être du texte, de l'image, de l'audio/vidéo ou n'importe quelle combinaison de différents types médias accessibles. Cette volonté se retrouve chez l'éditeur Autonomy, dont l'une des spécialités est précisément... les moteurs de concepts. En appui sur des algorithmes d'analyse (Shannon, Bayes...), son moteur de recherche affiche en permanence des liens contextuels vers des ressources qu'il considère proches d'un document non structuré en cours de saisie. Parmi les autres orientations de cet éditeur : la structuration de documents basés sur une forme de reconnaissance vocale.

Malgré la complexité affichée, l'hypermédia n'est donc pas une idée nouvelle. Déjà, il y a 30 ans, le visionnaire Ted Nelson, expert es-interfaces homme/machine, avait commencé à imaginer les contours d'un système alternatif ou concurrent du Web (lire article sur le site développeurs d'IBM). Baptisé Xanadu, celui-ci rejette en bloc bon nombre de principes adoptés dans les faits par les organismes de normalisation comme le W3C. Selon le scientifique, le Web représente typiquement un concentré de ce qu'il aurait fallu éviter pour créer un espace réellement ouvert au partage de la connaissance.

La conjonction du protocole HTTP et du langage de description HTML rend possible les liens hypertextes, appelés ainsi car leur fonction est de donner accès à des ressources situées en des emplacements divers.
Entre autres objections, Ted Nelson critique le fait que ces liens soient unidirectionnels et ne tiennent pas compte des changements qui peuvent intervenir sur les documents eux-mêmes et dans leur emplacement. En abandonnant l'idée d'une structure hiérachique qu'il juge anti-progressiste, son système théorique Xanadu combine en une seule plate-forme des liens bidirectionnels qui demeurent même lorsque les documents changent de place, avec un historique des versions et des profils d'accès. Pour Ted Nelson, les implémentations du langage XML ne sont qu'une suite de rustines à un système inadapté et dépassé.

L'interactivité ? Oui, mais entre les processus...
Internet aurait-il donc pu davantage être taillé pour la communication hypermédia ? Possible... Mais en l'état de la situation actuelle, le langage XML et les bases de données peuvent offrir une partie des fonctions (historique des versions et gestion des profils...) qui servent de socle à de la collaboration sur du contenu, et font défaut aux technologies Web au sens strict. En attendant, toutes les architectures de tous les sites web ne sont pas conçues ainsi. Et c'est cela que déplore l'inventeur de Xanadu.

Fondé en 1996, l'OHSWG (Open Hypermedia Systems Working Group) a également pointé du doigt ces lacunes de HTTP, et en souligne une autre : le protocole du Web n'a pas été conçu pour accéder à des portions de documents. Selon l'exemple cité, il ne peut extraire les dix dernières secondes d'une vidéo de deux heures pour n'afficher que celles-ci. Parmi les travaux des membres de l'OHSWG, l'on retiendra l'usage de "l'hypermédia ouvert" pour faciliter et enrichir les possibilités de l'intégration de contenus. Un livre blanc (deuxième de la liste sur cette page) explique ainsi comment un référentiel de contextes XML peut servir à générer des méta-données sur de l'information existante. Le projet HyperDisco va encore plus loin, puisqu'en faisant interagir les processus, il prétend pouvoir intégrer des applications les unes avec les autres sans les obliger à normaliser leurs modèles d'intégration.

Dans le même temps, Autonomy semble développer une approche similaire à travers son système middleware IDOL (Intelligent Data Operating Layer) qu'il définit comme une couche essentielle "d'intégration par la compréhension" au coeur de l'architecture de sa plate-forme. Sous une forme évoluée, un tel système doit pouvoir accéder à tous les types de sources et effectuer de l'intégration à la demande. Et ceci, grâce au recours à des technologies d'analyse sur les formats d'entrée/sortie des applications. Bref: si les interfaces contextuelles du futur peuvent paraître d'un abord très simple pour l'utilisateur, les technologies sous-jacentes se révèlent autrement complexes. Et parmi les éditeurs dans la course, il faudra surveiller de près Autonomy.

[François Morel, JDNet]
 
Accueil | Haut de page
 
 

  Nouvelles offres d'emploi   sur Emploi Center
Auralog - Tellmemore | Publicis Modem | L'Internaute / Journal du Net / Copainsdavant | Isobar | MEDIASTAY

Voir un exemple

Voir un exemple

Voir un exemple

Voir un exemple

Voir un exemple

Toutes nos newsletters