Il faudra un contre-feu à la prolifération des contenus générés ou malveillants sur le web

La révolution informatique a évolué vers une hyperconnexion des contenus et des personnes, avec des conséquences sociétales parfois regrettables. Comment trier le bon grain de l'ivraie à l'avenir ?

L'histoire du World Wide Web (WWW) remonte aux années 1980 et 1990, intimement liée à l'évolution de l'informatique et des communications. L'interconnexion d'ordinateurs existait depuis les années 1960, mais elle était alors limitée aux milieux académiques et militaires. L'internet, qui est le réseau mondial d'ordinateurs interconnectés (un réseau de réseaux), a été développé dans les années 1970 avec le projet ARPANET qui a ouvert la voie à la communication à grande échelle entre des ordinateurs distants. Enfin, en 1989, Tim Berners-Lee, un chercheur britannique, a proposé un système pour gérer et partager l'information entre les chercheurs du CERN (Organisation européenne pour la recherche nucléaire).

Quelques bouts de ficelle

Ce système, que l'on nomme en bon français "le ouaibe", a été conçu pour que chacun puisse publier des contenus facilement. Il est articulé autour de concepts techniques aujourd'hui devenus banals :

  • L'URL (Uniform Resource Locator) est une adresse unique permettant d'identifier chaque ressource en ligne de manière unique.
  • Le protocole HTTP (Hypertext Transfer Protocol) permet le transfert des données (comme des pages web) entre un serveur et un navigateur web.
  • Le langage HTML (Hypertext Markup Language) sert au balisage des pages web. Il permet de structurer le contenu et de créer des liens hypertextes.
  • Enfin, ces hyperliens permettent de relier des pages web entre elles, créant ainsi une toile d'informations interconnectées.

Très rapidement, en 1991, la démocratisation du WWW démarre avec la création du premier site web public. Cela ouvre la voie à l'explosion de l'internet public et à la création de millions de sites web dans le monde entier. Des navigateurs tels que Mosaic, Netscape, et plus tard Internet Explorer ou Mozilla Firefox, ont été développés pour rendre la navigation conviviale et accessible à tous. Il est désormais évident que la toile a radicalement transformé la façon dont nous accédons à l'information, communiquons, faisons des affaires et bien plus encore. Il a également ouvert la voie à l'économie numérique telle que nous la connaissons.

Le ver était dans le fruit

Cependant, qui dit démocratie, dit liberté d'expression. Dans un univers où l'anonymat est la règle, comme à bulletin secret, on n'a pas tardé à voir apparaître les travers de la puissance informatique : une propagande diffusée mondialement pour un coup dérisoire et l'absence de contrôle des informations publiées. Ces problématiques ont pris ces dernières années des proportions impressionnantes, suite à l'explosion du trafic sous la forme de réseaux sociaux et avec l'émergence de l'intelligence artificielle… soi-disante. Il s'agit en réalité d'une automatisation poussée de la découverte et de la synthèse d'information, sous la forme de générateurs syntaxiques et d'images en particulier.

En parallèle d'un traçage toujours plus important des sites commerciaux en particulier, au fil du temps, de nombreux réseaux sociaux et de sites comme wikipédia, ont dû mettre en place des autorités ou des mécanismes de modération, afin de se prémunir contre les manipulations. En vain serait-on tenté de dire, du moins jusqu'à aujourd'hui, si l'on s'en réfère à la confusion généralisée. Les fameuses fake news sont parfois promues dans les plus hautes sphères gouvernementales et dans les médias mainstream, causant des dégâts démocratiques indéniables. À tel point que l'on peut légitimement se demander s'il sera toujours possible d'exploiter le web, et sa précieuse immédiateté, à moyen terme.

Nous sommes facilement inondés de contenus générés, y compris au sein de médias se prétendant journalistiques. Mais est-ce que ça existe encore, la neutralité journalistique, alors qu'en France par exemple 90% des médias appartiennent à des intérêts privés ?.. Quoi qu'il en soit, les nouveaux moyens informatiques rendent la fraude toujours plus sophistiquée. Mais un autre problème, encore discret, provient de ce que les intelligences artificielles (IA) sont alimentées avec ces données publiques, qu'elles abondent de leur production accélérée. On aura bientôt à faire avec des données approximatives, construites sur la base d'une information dégradée, et il semble que la seule issue possible à cette dérive soit de doter l'internet public d'un contrôle global, une sorte de modération universelle, en contradiction flagrante avec sa promesse initiale de liberté.

Évoluer ou périr

Le danger serait que les modèles d'IA soient formés sur des données biaisées, reproduisant ces biais dans leurs résultats. Cela entraînerait des discriminations dans divers domaines, comme les élections, la sélection d'employés, les prêts, la justice, etc. À terme, il pourrait être impossible de déterminer les responsabilités, en cas de problèmes liés à des contenus générés par des IA même partiellement. Qui est responsable en cas de désinformation ou de contenu offensant, quand personne n'est directement auteur de ces contenus ? La prochaine fonction cruciale du web serait une forme de métaweb, c'est-à-dire une nouvelle dimension juxtaposée aux concepts du web originel (URL, HTTP, HTML). Actuellement, il relie les personnes et les silos d’informations en comptant sur la responsabilité de tous, se basant sur une valeur a priori égale des contenus produits.

Ce métaweb, lui, devra donc être capable de filtrer les fausses informations, les abus et les escroqueries, tout en permettant le niveau de collaboration nécessaire aux défis présents ou à venir de nos sociétés. On peut aller jusqu'à postuler une relation symbiotique entre l’IA et le métaweb, où l’IA aiderait à générer, organiser et conserver les contenus, tandis que le métaweb fournirait les données et le contexte requis pour que l’IA fonctionne de manière efficace, transparente et harmonieuse. Faute de cette contre-mesure, il est à craindre que le WWW perde sa fonction démocratique et économique. L'espoir, c'est que la collaboration entre humains assistée par l’IA via le métaweb permettra une vaste intelligence collective (IC) et la préservation d’une énorme valeur accumulée.

Pour en savoir plus à ce sujet, vous pourrez lire l'ouvrage intitulé "The Metaweb: The Next Level of the Internet", décrivant le DAO de Bridgit : https://www.bridgit.io/