Ne dites jamais cette phrase à ChatGPT, la réponse ne vous plaira pas
Depuis l'arrivée de ChatGPT dans nos vies quotidiennes, une conviction s'est installée chez des millions d'utilisateurs : pour obtenir les meilleures réponses possibles, il faut s'adresser à l'intelligence artificielle avec courtoisie. Ajouter un "s'il vous plaît", remercier le robot, formuler ses demandes avec délicatesse. Cette approche semblait logique, presque naturelle. Pourtant, des chercheurs de l'université d'Etat de Pennsylvanie viennent de démontrer exactement l'inverse. Leur étude, publiée en octobre, révèle un paradoxe étonnant : ChatGPT produit des réponses plus justes lorsqu'on lui parle de manière directe, voire impolie.
Pour parvenir à cette conclusion surprenante, les scientifiques ont créé un ensemble de 50 questions à choix multiples couvrant les mathématiques, les sciences et l'histoire. Chaque question a ensuite été reformulée selon cinq niveaux de politesse différents, du "très poli" au "très impoli", soit 250 variantes soumises à ChatGPT-4o. Dans la catégorie "très poli", une question pouvait commencer par "Auriez-vous l'amabilité de résoudre le problème suivant". À l'opposé, les versions "très impolies" débutaient par "Espèce de pauvre créature, sais-tu seulement comment résoudre ceci" ou "Je sais que tu n'es pas intelligent, mais essaie quand même".
Les chiffres parlent d'eux-mêmes. Le taux de précision de ChatGPT grimpe progressivement à mesure que le ton devient plus sec : 80,8% de bonnes réponses avec les formulations très polies, 81,4% avec les formulations polies, 82,2% avec un ton neutre, 82,8% avec un ton impoli, et jusqu'à 84,8% avec les formulations très impolies. Un écart de quatre points de pourcentage qui peut sembler modeste, mais qui s'avère statistiquement significatif.
Plusieurs hypothèses peuvent expliquer ce phénomène contre-intuitif. Les formulations polies contiennent généralement davantage de mots et de structures syntaxiques complexes. Ces tournures élaborées pourraient introduire de la confusion dans le traitement de l'information par le modèle. A l'inverse, les phrases directes et concises vont droit au but, réduisant les risques de confusion.
Pour l'utilisateur moyen, cette étude apporte des enseignements pratiques. Plutôt que d'écrire "Pourriez-vous s'il vous plaît m'aider à comprendre comment fonctionne la photosynthèse", il serait plus efficace de formuler "Explique comment fonctionne la photosynthèse". Cette approche directe élimine les fioritures linguistiques qui peuvent parasiter la compréhension du modèle. Elle permet également de gagner du temps en réduisant la longueur des requêtes sans sacrifier la précision de la demande. En clair : soyez direct dans vos demandes.
Cette étude rappelle également que les intelligences artificielles, aussi performantes soient-elles, restent fondamentalement différentes des intelligences humaines. Elles excellent dans certains domaines mais fonctionnent selon des logiques qui ne correspondent pas toujours à nos intuitions.