JDNet
Solutions : Où en sont les projets du W3C autour du Web sémantique ?
Daniel Dardailler:
Nous avons débuté les activités de Web sémantique
début 2001. Le Web sémantique consiste à attacher
aux contenus Web des meta-données -en vue notamment d'automatiser
certaines tâches applicatives, telle que la syndication notamment.
Nos projets dans ce domaine visent d'abord à mettre au point ces
meta-données (baptisées RDF), mais également à
définir des schémas XML (RDF Schema) pour décrire les vocabulaires
qu'elles utilisent. Parallèlement, nous élaborons également
une ontologie de profils permettant de regrouper les meta-données
par catégorie, et définir ainsi les contextes dans lesquels
seront utilisés les contenus : un classement conçu
au final pourra être utilisé par les applications.
Au côté de la définition des spécifications
et la mise au point des outils de développement correspondants,
le W3C s'est lancé dans la réalisation de démonstrateurs.
Le but de ces applicatifs pilotes est de montrer aux industriels les possibilités
offertes par le Web sémantique. Notez que le site du W3C les utilise
déjà pour syndiquer ses
articles et gérer ses politiques d'accès.
Les
Web Services rapprochent également XML de la couche applicative ?
Les Web Services fournissent effectivement
une interface de programmation XML pour accéder à des fonctions
applicatives. A la manière d'agents intelligents, leur objectif
est d'automatiser le dialogue entre applications distantes, que ce soit
en termes de services ou de contenus.
Le
consortium
lancé récemment par Microsoft et IBM ne fait-il pas
concurrence à votre groupe de travail dédié à
ce sujet ?
Le groupe que nous avons mis en place en janvier
dernier traite uniquement des couches basses, telles que SOAP (Simple
Object Access Protocol), WSDL (Web Services Description Language) et HTTP.
Son travail ne couvre pas les vocabulaires de description de données
métier. Chose que nous ferons peut-être plus tard quand nos
projets actuels en la matière seront entrés en phase de
normalisation. A la manière de l'OASIS, la "Web Services Interoperability
Organization" devrait également traiter des niveaux supérieurs.
Comment
analysez-vous les récentes initiatives autour de la présentation
des contenus ?
Ici aussi, la démarche est comparable
à celle du Web sémantique. L'objectif est en effet d'optimiser
la structuration et la formalisation des données pour qu'elles
puissent être comprises puis exécutées par les machines.
Face aux systèmes propriétaires du marché (Flash,
PDF, etc.), nous avançons dans ce domaine des langages comme SVG
(Scalable Vector Graphics), SMIL (Synchronized Multimedia) ou les feuilles
de style en cascade (CSS 3.0). La plupart du temps, il s'agit d'initiatives
prises suite à des demandes d'éditeurs en quête de
langages standardisés. Dans certains cas, nous avons abouti à
d'excellentes performances. C'est notamment le cas de la technologie SVG
qui offre des fonctions largement comparables à celles de Flash.
Les
chantiers du W3C sont de plus en plus nombreux. Comment sont-ils coordonnés ?
Plusieurs groupes de travail horizontaux ont
été mis en place pour assurer la cohérence des travaux.
Parmi eux, on compte une activité autour de l'assurance qualité,
qui s'appuie par exemple sur des méthodologies conçues par
OASIS suite à des tests effectués sur XML. D'autres veillent
à ce que les spécifications laissent une porte ouverte à
tout type de terminaux ou encore recommandent des démarches pour
mettre les modes de présentation à la portée de personnes
handicapées (aveugles, etc.).
Au côté de ces organes transverses, un groupe de coordination
(Technical Architecture Group, plus couramment appelé le comité
des sages) se charge d'assurer la cohérence des spécifications.
Impliqués dans la plus part des projets, ses membres en suivent
l'ensemble des évolutions en vue d'éviter les doublons et
de garantir la bonne application des schémas XML.
Quelles
sont les compétences nécessaires pour faire partie d'un
groupe de travail ?
Chaque groupe a mis au point une charte pour
décrire son mode d'organisation. Celle-ci indique notamment le
temps (quart temps, mi-temps, etc.) et les compétences requises
pour y entrer. Au total, les participants sont le plus souvent des spécialistes
de la veille ou des membres de sociétés souhaitant comprendre
les standards avant de les implémenter dans leur produit.
Dans le cadre
de ses travaux au sein de l'INRIA
(Institut National de la Recherche en Informatique et en Automatique), Daniel
Dardailler commence par travailler pour le X Window Consortium : un organisme
indépendant chargé de normaliser les environnements graphiques utilisés
sous les UNIX (HP UNIX, SUN, AIX, etc.). Parallèlement, il réalise
une thèse de recherche sur les problématiques graphiques liées à
ce type de systèmes. Membre du World Wide Web Consortium (W3C) à partir
de 1996, il en est aujourd'hui le directeur pour l'Europe.
|