Analyses
 
17/09/2007

ACAP, la main tendue des éditeurs aux moteurs de recherche

Eclaircir les règles d'utilisation des contenus éditoriaux par les moteurs, telle est la mission du protocole ACAP. Le français Exalead a rejoint le projet. Les autres moteurs s'y intéressent prudemment.
  Envoyer Imprimer  

 
En savoir plus
 
 
 

Lancé en octobre 2006 par l'Union Internationale des éditeurs, le projet ACAP - pour Automated Content Access Protocol - a pour but d'automatiser les informations sur les droits et règles d'utilisation de contenus éditoriaux. Un protocole principalement destiné aux moteurs de recherche.

A l'initiative de ce projet : l'association mondiale de journaux (WAN), le conseil européen des éditeurs (EPC) ainsi que l'association internationale des éditeurs (IPA). Depuis son lancement, de nombreuses sociétés ont accepté de tester ce protocole, parmi lesquelles l'Agence France-Presse, Media 24, Wiley, Reed Elsevier et tout dernièrement le moteur Exalead.

Plus concrètement, sur chaque page de contenu des sites, des informations indiquent aux robots des moteurs de recherche comment traiter l'information. "Un fichier définit les droits pour chaque utilisation : l'indexation, la visualisation, l'élaboration de vignettes ou encore l'archivage", explique François Bourdoncle, P-DG du moteur de recherche Exalead.

Analogue aux fichiers robots.txt, ce protocole a l'avantage d'être beaucoup plus complet et explicite sur la bonne utilisation, avec des frontières légales plus nettes. Des droits qui seront précisés pour chaque type de contenu publié en ligne, dont les fichiers vidéo et audio.

Le protocole ACAP prend le relais des efforts menés par le moteur de recherche A9 d'Amazon. La librairie en ligne avait en effet initié la recherche dans ses livres avec son programme "recherche au cœur", un programme permettant notamment de rechercher dans un ouvrage entier sans pour autant afficher la totalité de l'œuvre. Seule limite de cette fonctionnalité, Amazon n'avait pas mis en place d'outil empêchant volontairement l'indexation de certaines pages.

Un protocole qui n'est utile que s'il est adopté par les moteurs

Exalead reste pour l'instant le premier moteur à se greffer au projet. "Les autres moteurs restent attentifs à l'évolution de ce projet. En adhérant à ce projet, nous choisissons d'avancer de concert avec les éditeurs. D'autant plus que nous n'avons pas les moyens de négocier avec chaque éditeur", ajoute le P-DG d'Exalead. Google, Yahoo et Live montrent en effet quelques signes d'intérêt.

Pour l'instant, ces moteurs cherchent à minimiser les risques en signant des accords avec certains éditeurs. Début septembre, Google a d'ailleurs annoncé la signature d'un partenariat avec l'AFP, l'Associated Press, la Press Association anglaise et la Presse canadienne, lui permettant de faire figurer les dépêches de l'AFP dans sa rubrique actualité.

Face aux derniers bras de fer musclés avec certains groupes comme Copiepresse ou encore Viacom, les moteurs de recherche ont tout intérêt à éclaircir leur position avec ces éditeurs. Reste que ce protocole peut faire double emploi avec le protocole robots.txt déjà bien accepté et utilisé.

 
En savoir plus
 
 
 

C'est en effet ce point qui semble déplaire aux trois moteurs de recherche. Passer un accord avec les éditeurs remettrait en cause de leur système d'indexation et d'archivage automatique, aujourd'hui exhaustif.

Prochaine grande épreuve dans le planning de l'ACAP : le passage de son premier grand test avant la phase d'implémentation à grande échelle prévue pour la fin du mois de novembre 2007.

 


Envoyer Imprimer Haut de page