"En quoi les RSS changent la consommation d’information"

Avec les flux RSS, l'information sort peu à peu de ses cadres "émetteur-récepteur" et du "marketing direct" traditionnels. L'information devient réellement synchrone, mais aussi plus étoffée. D'où l'apparition de nouvelles règles de pertinence.

Les blogs ont inventé les flux de syndication à usage personnel (RSS et Atom) afin d'apporter la "meilleure" réponse au spam en permettant de ne plus avoir à donner son e-mail pour recevoir des informations. Mais au delà, cette structuration de l'information (le titre, l'auteur, la date, le chapô, l'article...) propose de nouveaux services qui répondent aux enjeux de la consommation personnelle d'information.

De l'information asynchrone à l'information synchrone

Professionnel ou grand public nous sommes tous confrontés à un besoin de performance face à l'information disponible sous la forme digitale. La qualité des informations diffusées sur le Web peut en faire un média unique et suffisant pour assurer une veille sur des médias ou sur des sites de e-commerce. Jusqu'à présent le mode opératoire de recherche de l'information est "asynchrone / décalé" c'est-à-dire que l'on doit agir sur les interfaces pour trouver sa réponse. L'information est déjà en ligne depuis un certain temps et je la consulte donc en "décalé". C'est que je fais quand je vais sur un moteur de recherche ou un comparateur de prix, que je tape ma requête et parcours les résultats.

Le passage à l'information structurée permet de placer des requêtes qui vont traiter ma recherche en "tâche de fond" et vont m'amener le résultat sur les informations qui viennent d'être publiées. C'est un mode "synchrone / temps réel". Par exemple je veux toutes les informations publiées sur une marque dans un contexte donné : langue française, site professionnel (essayez Feedster.com), ou je veux être averti de toutes les annonces des sites de e-commerce, ebay inclus, qui mettent en vente des consoles "Wii sport" au prix de 250 euros ou moins (une opération possible mais plus complexe à mettre en place sur Pipes.yahoo.vom).

De nouvelles exigences pour définir la pertinence
Une partie importante du succès des moteurs de recherche a été de séparer correctement le contenant et le contenu qui sont imbriqués dans le html et de créer de la pertinence dans les réponses fournies rapidement. Pour améliorer la pertinence il faut maintenant prendre en compte les nouveaux enjeux de quantité, de qualité et d'instantanéité.

La quantité
Les sources d'information se multiplient (un blog peut être tout aussi intéressant que le site d'un "éditeur" traditionnel). Il faut donc pouvoir simplifier l'inscription à l'abonnement à l'ensemble des sources d'un même thème. C'est ce que permet la norme OPML qui liste un ensemble de flux RSS pour en automatiser l'abonnement. C'est un peu comme si vous changiez d'adresse e-mail et que vous pouviez d'un coup vous réabonnez à toutes vos newsletters favorites.

La qualité
L'information peut désormais être notée par les lecteurs (comme par exemple sur Wikio.com). Les sites sont alors rendus pertinents par des classements, des références... une sorte de "blog rank" est en train de naître (Alianzo.com/top-blogs/france). L'information "commerciale" a commencé ce même travail de notation depuis quelques temps déjà, des flux XML apporteront une simplification du partage des points de vue.

L'instantanéité
La vitesse de réponse des moteurs de recherche est un facteur de confort dans sa recherche d'information, mais pour autant, l'internaute n'est pas "connecté" à la source de l'émission de l'information. L'abonnement aux flux RSS permet presque en "temps réel" d'être informé. Cette notion de fraîcheur est un progrès par rapport à nos usages actuels.

Un usage encore peu répandu
Le RSS et ses dérivés comme le Podcast sont toutefois actuellement sous utilisés par les émetteurs et par les utilisateurs. Une minorité de sites qui produisent des flux tirent partie des possibilités techniques de la norme : mise en forme html, tracking, personnalisation, gestion de l'abonnement avec données déclaratives, agrégation des sources sur un flux unique. La norme RSS 2.0 est aujourd'hui davantage pensée pour des sites avec un business model éditorial. Mais l'enrichissement par les namespaces apportera de nouveaux tags (les balises) pour qualifier une information plus commerciale, à l'instar de ce que fait Proposmart pour l'immobilier.

Peu d'internautes ont déjà inclus dans leur suite bureautique la lecture des flux. Mais la progression de la nouvelle génération de pages d'accueil (Netvibes.com et consort), l'arrivée d'Outlook 12, les widgets de Vista liés à l'abonnement dans IE7, et bien d'autres solutions permettent d'organiser très facilement des flux. Parallèlement, les avantages consommateurs commencent à être perçus. Dans une étude récente sur les jeunes et le Web 2.0, 66% trouvent les flux RSS utiles. 

L'information sort donc peu à peu de ses cadres "émetteur-récepteur" et du "marketing direct" traditionnels. Elle devient une "matière vivante" dont s'emparent les lecteurs/consommateurs pour lui donner une nouvelle "valeur ajoutée". La relation évolue. Le consommateur s'abonne et choisi de couper le fil. Il ne donne plus son "adresse", ce moyen qui permettait de le contacter à son insu. Beaucoup de changements en perspective, qui interviennent après une première décennie qui est partie des modèles traditionnels pour les plaquer sur Internet. Avec une appropriation plus large de l'Internet, de nouveaux usages naissent et cette matière première qu'est l'information, est maintenant raffinée, structurée. Elle va pouvoir être réinjectée dans le moteur de la Toile et participer à l'effet de blogosphère.