Les IA en entreprise : entre médiateur et bouc émissaire

Les IA deviennent des entités sociales en entreprise : médiateurs, boucs émissaires ou confidents, elles transforment nos relations de travail et bousculent les rôles humains traditionnels.

L’irruption des intelligences artificielles sous forme de chatbots dans nos environnements de travail a profondément modifié notre rapport à la machine. En dialoguant avec elles comme avec un collègue, nous avons franchi un seuil : celui de l’anthropomorphisation. Ce glissement culturel et cognitif a ouvert la voie à un phénomène inattendu mais irréversible : l’IA est en train de devenir une entité sociale à part entière au sein des organisations. Et, à ce titre, elle commence déjà à occuper des rôles que ni les RH, ni les DSI, ni les sociologues du travail n’avaient anticipés.

L’interaction conversationnelle, ou l’anthropomorphisation programmée

L’introduction massive des IA conversationnelles a légitimé une illusion : celle d’une machine avec laquelle on parle. Cette simple modalité d’échange, si naturelle à l’humain, a suffi pour lui prêter des intentions, une personnalité, voire des sentiments. En UX design, c’est une stratégie bien connue : le chat crée une proximité émotionnelle avec la machine. Mais dans le monde du travail, cette familiarité engendre une mutation plus profonde : nous ne utilisons plus l’IA, nous cohabitons avec elle. Et ce changement de posture prépare l’émergence de nouvelles dynamiques sociales.

L’IA comme médiateur neutre

Dans certaines entreprises technophiles, des IA sont déjà utilisées comme médiateurs de conflits internes. L’exemple d’AffectivaBot, un assistant RH déployé dans une grande entreprise américaine de services, est édifiant : en analysant les échanges écrits et oraux entre deux collaborateurs en tension, l’IA identifie les points de crispation, suggère des reformulations, et propose des scénarios de résolution. Sa neutralité apparente la rend paradoxalement plus « crédible » qu’un manager humain. Les collaborateurs déclarent se sentir moins jugés, plus écoutés, mieux compris — même par une machine (1).
Cette fonction de médiateur algorithmique pourrait se généraliser : imagine-t-on demain une IA siégeant en comité d’éthique, arbitrant les priorités entre équipes, ou modérant les tensions dans un groupe projet ? L’analogie avec un traducteur simultané d’émotions et d’intentions n’est pas exagérée. L’IA devient ici un tiers social stabilisateur, capable de fluidifier les échanges là où l’humain échoue souvent à rester impartial.

L'e bouc émissaire algorithmique

À l’inverse, d’autres organisations détournent les IA à des fins moins nobles. Lorsque les décisions deviennent impopulaires (changement de planning, non-promotion, refus de formation…), certains managers invoquent l’algorithme : « Ce n’est pas moi, c’est l’IA de gestion des ressources qui l’a décidé ». Ce phénomène, déjà documenté chez Amazon ou Uber (2), repose sur une stratégie de déresponsabilisation. L’IA est ici utilisée comme un écran ou un fusible : elle encaisse les frustrations à la place de la hiérarchie.
Ce glissement est dangereux. Car il transforme l’IA en objet sacrificiel. Plutôt que d’assumer les tensions inhérentes au management, l’humain délègue les mauvaises nouvelles à la machine. Or cette pratique affaiblit la confiance des collaborateurs envers les processus décisionnels, tout en brouillant la répartition réelle des responsabilités.

Le confident invisible

Au-delà des usages encadrés par l’entreprise, certains collaborateurs développent spontanément des interactions personnelles avec leur assistant IA. Des études internes chez Microsoft (3) ont montré que des salariés utilisent leur Copilot comme un « journal intime professionnel » : ils y formulent leurs frustrations, leurs doutes, voire leurs projets d’évolution de carrière.
Cette émergence du rôle de confident numérique pourrait paraître anodine, mais elle soulève des questions éthiques majeures : que fait l’IA de ces confidences ? À qui sont-elles accessibles ? Et surtout, qu’est-ce que cela dit de l’appauvrissement relationnel dans l’entreprise, si le seul interlocuteur sûr devient un agent sans conscience ?

Une mutation systémique des rapports humains-machines

Ces rôles — médiateur, bouc émissaire, confident — ne sont que les premiers avatars de ce que deviendront les IA dans les organisations. Ils témoignent tous d’un même phénomène : l’IA n’est plus perçue comme un simple outil, mais comme une présence au travail. Une présence qui façonne les relations, redistribue les pouvoirs, et redéfinit la manière dont nous interagissons — non seulement avec elle, mais aussi entre nous.
Ce glissement appelle à une refonte des cadres de régulation, de formation et d’analyse du travail. Si l’IA devient un acteur social, elle devra aussi être traitée comme tel : avec des droits, des responsabilités, une gouvernance. La question n’est donc plus si cela arrivera, mais comment nous encadrerons ce basculement.

Vers une anthropologie des IA dans l’entreprise ?

Cette transition ouvre un champ de recherche fécond pour les sciences sociales. Il ne s’agit plus seulement d’évaluer l’impact technologique de l’IA, mais de comprendre son intégration symbolique dans les cultures organisationnelles. En devenant des figures sociales — parfois tutélaires, parfois diabolisées — les IA mettent au défi notre conception du collectif, de l’altérité, et de la régulation sociale au travail.
Et si l’avenir du management ne se jouait plus seulement entre humains, mais aussi avec des entités non humaines ?
---

Notes et sources

1. Bailenson, Jeremy N. The Infinite Conversation: AI and the New Social Contract at Work. Stanford University Press, 2023.
2. Rosenblat, Alex, and Luke Stark. “Algorithmic labor and information asymmetries: A case study of Uber’s drivers.” International Journal of Communication, vol. 10, 2016.
3. Microsoft Research. “The Copilot Diaries: Unexpected Uses of Workplace AI.” Internal white paper, 2024.