Allier l'humain à l'IA, au service d'une modération optimale

Garantir une modération fine des contenus les plus sensibles ne sera possible qu'à condition d'investir dans l'humain.

Bien que le terme « IA » se retrouve dans les présentations de la plupart des investisseurs ou même sur les pages Web « à propos » des entreprises, être témoin d’une véritable IA est beaucoup plus rare, voire même compliqué. La différence est considérable entre l’Apprentissage Automatique (ML, Machine Learning), l’Apprentissage Profond (DL, Deep Learning) et le Bullshit (BS).

Malgré cela, même la véritable IA peut mal tourner. Récemment, une tendance TikTok a émergé où certains utilisateurs utilisaient l’expression « j’ai mangé des pâtes ce soir », non pas pour parler de ce qu’ils avaient mangé pour le dîner, mais comme code pour signaler un appel à l’aide face à des idées suicidaires.

Ce n’était pas la faute de TikTok si l’algorithme n’a pas saisi la tendance assez rapidement pour arrêter la promotion de ces publications, car l’intelligence artificielle (IA) a besoin de nombreuses données historiques pour bien fonctionner. En informatique, on parle de « garbage in, garbage out ». C’est la raison pour laquelle l’IA peut battre les humains aux échecs ou au Mahjong, mais elle n’aurait jamais pu inventer le jeu.

C’était également l’un des sujets dont j’ai discuté avec le professeur Steven Pinker de l’Université de Harvard l’année dernière lorsqu’il a évoqué « l’art de poser des questions », une chose qui est encore réservée aux humains. Bien que l’IA s’améliore de mieux en mieux dans le domaine de l’informatique, elle ne pourra jamais tomber amoureuse ou poser de questions.

L’IA est très importante dans la vie de tous les jours, et aujourd’hui, elle joue un rôle primordial dans la modération d’informations en ligne. C’est elle qui décide de ce que nous allons pouvoir voir, de ce qui ne va pas, de ce qui est nuisible, de ce qui est haineux, de ce qui est faux, de ce qui est boosté, de ce qui devient « viral » et de ce qui ne le sera jamais. Mais comme nous avons pu l’observer sur les grandes plateformes technologiques au cours des dernières années, ou à partir des différents exemples mentionnés ci-dessus, cela pose des problèmes fondamentaux et une question émerge alors : l’IA est-elle suffisante pour modérer le contenu et les publicités ? Ou avons-nous besoin d’humains ?

Les machines

L’IA est une révolution incroyable, probablement aussi importante que l’invention de l’électricité ou d’Internet, et représentera une grande partie de nos vies, pour toujours. Mais il y a deux choses importantes à savoir sur l’IA.

  1. L’IA ne fonctionne que lorsqu’elle a suffisamment de données pour mettre en place le modèle d’IA. Par exemple, l’IA n’a pas réussi à prédire la propagation et l’impact de la COVID-19 car il n’y avait pas de données existantes pour modéliser efficacement l’échelle de son impact réel. Ou lorsque le Face ID a été introduit pour la première fois comme un moyen de déverrouiller votre iPhone, mais n’a pas tenu en compte le « visage du matin » qui bloquait l’ouverture de l’iPhone. Il n'y avait pas suffisamment de données pour suggérer que les gens pourraient avoir l'air différent le matin au réveil, par rapport au reste de la journée.
  1. Certaines erreurs sont trop importantes. Par exemple, si Alexa a fait une erreur et me suggère d’acheter du café que je ne veux pas vraiment acheter en fonction de mon comportement, ce n’est pas très grave. Si YouTube a nommé une vidéo « vidéo animaux de compagnie » en pensant qu’il y avait des chiens dans la vidéo, mais que ce n’est pas le cas, ce n’est pas très grave. C’est embêtant, mais ce n’est pas très grave. Je peux m’en remettre. Mais si nous décidons d’utiliser l’IA sur des sujets plus importants, devons-nous prendre au sérieux le début d’une propagation d’un virus par exemple, ou lorsqu’il s’agit de sujets liés à la démocratie, à la dépression, au racisme ou aux droits de l’homme, cela soulève une question primordiale : l’IA est-elle suffisante ?

Les humains

Lorsqu’il s’agit de sujets sérieux, comme la modération d’informations, nous sommes obligés d’admettre les limites des capacités humaines. Les gens se fatiguent, tandis qu’un ordinateur a une endurance infinie lorsqu’il passe en revue 100 ou 1 000 articles. Les gens ont des préjugés, ils ont des bons et des mauvais jours, et ainsi de suite. Si nous voulons envisager une approche plus humaine à la modération d’informations, il est important d’avoir des équipes de révision de contenu incroyablement diversifiées et soutenues.

Quand on a fini par réaliser que « manger des pâtes » n’était pas à propos d’un repas, mais d’un code pour le suicide, ce sont les humains qui l’ont remarqué. Ou quand la COVID-19 a commencé, ce sont les humains qui l’ont vu se propager, pas des machines. Ou lorsqu’une IA de reconnaissance d’image a qualifié des personnes de couleurs de gorilles, ce sont les humains qui l’ont rectifié, pas l’IA.

Les humains + les machines

Il n’y a aucun doute que l’avenir sera surindexé par des machines qui nous aideront à mieux vivre mieux par le biais de nombreuses interactions quotidiennes. Mais je suis convaincu que pour des sujets plus sérieux, il existe des problèmes humains qui ne peuvent qu’être résolus par des humains avec l’aide de l’IA en soutien.e

Après le boycott de Facebook, j’ai suggéré qu’ils embauchent 50 000 modérateurs de contenu en plus de leur système d’IA, afin d’examiner manuellement le contenu. Je pense qu’il est important pour chaque plateforme technologique qui a un impact significatif dans le monde, de prendre la responsabilité d’assurer un contenu de qualité sur sa plateforme.

Les limites des capacités humaines à examiner le contenu sont beaucoup plus minimes que les risques que nous prenons à n’utiliser que l’IA.

Je vote pour les humains (avec l’IA).