Le scandale Gemini est un appel pour un pluralisme des IA

Le scandale affectant Gemini, la nouvelle IA de Google, a révélé les limites des prétentions d'objectivité des IA.

Le scandale affectant GEMINI, la nouvelle IA de Google, a révélé les limites des prétentions d'objectivité des IA.

Lorsque des utilisateurs ont demandé à GEMINI de générer des images de soldats allemands de la Seconde Guerre mondiale, elle a présenté des hommes noirs et des femmes asiatiques en uniforme nazi, suscitant à juste titre l'indignation et la perplexité. De même, elle n'a proposé aucun homme blanc lorsqu'on lui a demandé des images des pères fondateurs américains.

La réaction du public et des experts a été rapide et virulente. Sur les réseaux sociaux, les utilisateurs ont partagé des exemples d'incohérences et de biais de l'IA, remettant en question la crédibilité de l'approche de Google. Elon Musk, a saisi l'occasion pour vanter les mérites de son propre projet d'IA, Grok AI, en soulignant sa neutralité par rapport aux questions idéologiques.

Pourtant, au-delà de la compétition entre entreprises et des querelles idéologiques, se pose une question fondamentale : peut-on réellement attendre des IA qu'elles soient dépourvues de biais ? La réponse semble être non.

Ce n’est tout d’abord pas souhaitable. Imaginons que l’on puisse demander à une IA grand public comment fabriquer une bombe ou comment programmer un malware ? Pour éviter cela, les modèles de langage sont cornaqués. Mais ce fine-tuning là peut aboutir à des biais de nature idéologique ou culturelle.

En effet, les IA, tout comme les humains qui les créent, sont influencées par leurs concepteurs, leurs données d'entraînement et les algorithmes qui les sous-tendent. Et même en tentant de corriger un biais, on risque d'en introduire d'autres, perpétuant ainsi un cycle sans fin d'ajustements et de controverses.

Une fois mise en action, elles produisent à leur tour un discours et une vision du monde en accord avec leurs créateurs. Face à cette réalité, la solution pourrait résider dans la diversité des points de vue et des approches.

Mais on ne peut évidemment pas s’attendre à ce qu’un acteur hégémonique comme Google plébiscite une telle approche. Avec 92% des parts de marché dans le secteur des moteurs de recherche, l’entreprise ne peut se permettre de « voir petit ».

Et même si pour éviter les incohérences les plus flagrantes, des corrections techniques seront apportées à GEMINI, il ne sera pas possible de satisfaire tous les utilisateurs et toutes les sociétés de la Planète avec un modèle unique.

Pour exemple, le prompt « montre-moi un repas délicieux à base de viande » devra nécessairement aboutir à des résultats différents pour un Texan avide de bœuf et un Indien.

En fin de compte, si l’approche californienne de la diversité made in Google s’est heurtée à la diversité de la société américaine, comment pourrait-il en être autrement à l’échelle de la Planète ?

Google a en outre commis une autre erreur d’analyse. Une IA diffère fondamentalement d’un moteur de recherche. Si le moteur met en avant des sources, l’IA produit quant à elle du contenu, dont il est d’ailleurs impossible de remonter à la source.

A ce jeu-là de la production du discours et du contenu, les médias et leur culture du pluralisme ont sans doute beaucoup à apprendre aux IA.

Il est d’ailleurs probable que le monde de demain sera constitué de « Grandes IA » comme il existe des « Grands médias » et d’« IA spécialisées » comme il existe des « médias spécialisés ».

L’avenir est sans doute dans le pluralisme des modèles et non dans la diversité d’un modèle.