L'IA ne remplace pas vos équipes, elle expose les goulets que vous ne voyiez plus

Aksolot

Vous avez déployé des outils IA dans vos équipes de développement mais vos délais de livraison n'ont pas bougé ? Le problème n'est pas l'outil. Il est ailleurs dans la chaîne et existait avant l'IA.

L’IA comprime les maillons codifiables de la chaîne de production logicielle. Elle ne résout pas les goulets qui étaient déjà là : tests, intégration, mise en production, coordination. Elle les rend visibles en envoyant plus de volume dans des tuyaux déjà saturés.

Le code n’a jamais été le seul goulet

En novembre 2025, Anthropic a publié une nouvelle version de Claude Code. Des développeurs ont passé leurs vacances de Noël à l’expérimenter. Beaucoup sont revenus troublés : l’outil avait construit en quelques heures des projets qu’ils auraient mis des semaines à coder.

Les chiffres donnent la mesure de l’accélération. Chez Google, plus de 30 % du nouveau code est généré par l’IA (Pichai, Q1 2025). Chez Microsoft, Nadella estime la proportion à 20-30 %, avec des résultats inégaux selon les langages. Ces chiffres ne sont pas des mesures scientifiques. Ce sont des estimations d’exécutifs devant leurs actionnaires. Mais la tendance, elle, est incontestable.

Pourtant, les deux tiers des organisations ayant massivement intégré des outils d’IA n’ont constaté aucune réduction de leurs effectifs. Et si l’on élargit le regard au-delà du coût humain, délai de mise en marché, débit réel de livraison, stabilité en production ;  le constat est souvent le même : l’outil est là, le gain systémique non. Pourquoi ?

Parce que l’écriture du code n’a jamais été la seule contrainte. Quiconque a vécu un projet logiciel sait où le temps se perd réellement : dans les tests manuels et la régression, dans l’attente d’un environnement de recette, dans les cycles d’intégration, dans les procédures de mise en production, dans la coordination entre équipes. Tout le mouvement DevOps est né de ce constat. L’IA comprime le maillon le plus codifiable de la chaîne : l’écriture. Mais les goulets qui existaient déjà sur les tests, l’intégration et la MEP ne disparaissent pas. Ils deviennent plus visibles, parce que le reste va plus vite.

L’image est simple : c’est comme doubler le débit d’une autoroute dont la bretelle de sortie reste à une voie. Le résultat n’est pas la fluidité. C’est l’embouteillage déplacé.

C’est exactement ce qui s’était passé avec le cloud. Les entreprises qui ont fait du « lift and shift » ont payé plus cher pour le même résultat. Celles qui ont repensé leur architecture ont pris un avantage durable. L’IA pose la même question : automatise-t-on un maillon sans toucher au reste, ou restructure-t-on le système de delivery dans son ensemble ?

Pour y répondre, il faut regarder où l’IA touche concrètement l’entreprise. Sur quatre strates.

Strate 1 : la production logicielle

Les agents actuels (Claude Code, Cursor, Codex, Copilot) excellent dans un registre précis : les tâches facilement vérifiables. Génération de code standard, corrections de bugs, tests, refactoring de portée limitée. Ce qui exige du jugement (architecture, arbitrage de conception, besoins métier ambigus) reste humain.

L’idée séduisante d’une orchestration multi-agents où chaque agent tiendrait un rôle métier (agent PO, agent UX, agent dev front) ne correspond pas à la réalité. Les agents se spécialisent par capacité et par scope, pas par fiche de poste. En revanche, des systèmes multi-agents supervisés fonctionnent déjà en production sur des tâches décomposables et bornées : pipelines de due diligence, workflows de data engineering, maintenance prédictive. Ce qui reste immature, c’est l’autonomie complète sur des projets créatifs ouverts : ceux qui exigent arbitrage, contexte métier et jugement. Confondre les deux, c’est soit survendre, soit tout rejeter en bloc.

Le modèle qui émerge est plus simple : déléguer, vérifier, assumer. L’humain définit l’intention. L’agent implémente. L’humain valide et porte la responsabilité. Ce processus, qui aurait pris trois jours, prend deux heures. Mais il exige une qualité de jugement que l’ancienneté seule ne garantit pas.

Ce point mérite d’être souligné. Ce qui monte en valeur, ce n’est pas la séniorité en tant que telle. C’est la capacité à poser les bonnes contraintes, à détecter ce que l’agent a mal compris, à décider dans l’ambiguïté. Un senior routinier qui ne fait que valider sans lire reste médiocre avec ou sans IA. Un profil moins expérimenté mais doté d’un vrai sens système peut créer beaucoup plus de valeur.

Pour un manager, la conséquence est directe : les compétences à évaluer changent. La vitesse d’écriture ne différencie plus. Ce qui différencie, c’est la capacité à décomposer un problème en sous-tâches délégables, à spécifier des contraintes assez précises pour qu’un agent les respecte, et à repérer dans un diff de 500 lignes générées le défaut que l’agent n’a pas vu.

Strate 2 : l’architecture des systèmes d’information

Si l’IA amplifie ce qui existe, alors la qualité de ce qui existe détermine tout. Le rapport DORA 2025 montre des gains réels sur l’efficacité individuelle et la performance produit. Mais il relève aussi un signal persistant d’instabilité en production, ce qui confirme que le goulet ne disparaît pas, il se déplace vers la stabilisation. L’IA agit comme un miroir et un multiplicateur. Fondations solides : gains composés. Organisation fragmentée : chaos amplifié.

Qualité des données, modularité des APIs, cohérence applicative ne sont plus des sujets techniques secondaires. Ce sont les prérequis sans lesquels les agents produisent du bruit. Un agent branché sur une base mal gouvernée ne génère pas des insights. Il génère des erreurs à grande vitesse.

Qui porte ce sujet ? Pas forcément la DSI classique, souvent trop opérationnelle. Selon le profil de l’organisation, ce sera une direction plateforme, une direction produit, un CTO positionné au COMEX. Ce qui compte, c’est qu’une autorité claire soit responsable de la fondation sur laquelle l’IA opère. Dans les entreprises les plus performantes, cette bascule est déjà faite : près des deux tiers de leurs responsables technologiques participent à l’élaboration de la stratégie corporate (Global Tech Agenda 2026).

La question build vs buy se pose aussi. Construire son infrastructure agentique en interne offre un avantage compétitif mais coûte cher. Acheter des plateformes tierces accélère le déploiement mais crée une dépendance. Ne pas trancher, c’est laisser chaque métier acheter ses propres outils sans cohérence d’ensemble. C’est déjà en train d’arriver.

Strate 3 : l’organisation des équipes

C’est le terrain le plus miné.

Dans certains contextes, une partie de la capacité de production brute peut être absorbée par un noyau plus restreint de profils expérimentés équipés d’agents. La vélocité augmente, mais le modèle économique change : quatre profils seniors coûtent plus cher que six juniors. Selon le produit, la dette existante, le niveau de legacy, ce modèle peut fonctionner ou non. Il n’y a pas de loi générale. Aujourd’hui, les effectifs n’ont pas bougé dans la plupart des organisations parce que les structures n’ont pas changé. Mais le modèle qui émerge dans les product companies les plus avancées préfigure des équipes plus petites, plus chères, et plus exigeantes en qualité de jugement.

Ce qui est documenté, en revanche, c’est l’effondrement du pipeline de formation. Une étude de Stanford (Brynjolfsson et al., données ADP) montre que l’emploi des développeurs de 22 à 25 ans a reculé de près de 20 % par rapport à son pic fin 2022. Chez les Magnificent Seven, les diplômés récents ne représentent plus que 7 % des embauches, contre 15 % avant la pandémie (SignalFire). L’histoire de l’informatique invite à la prudence : chaque montée en abstraction a fini par augmenter la demande totale en développeurs. Mais même si le volume d’emploi se reconstitue, la nature du travail junior change. Et si personne ne réinvente le chemin de montée en compétence, le vivier de jugement senior s’assèche mécaniquement dans cinq à dix ans. Ce n’est pas un problème de DSI. C’est un problème de direction générale.

Parallèlement, l’IA déborde les équipes techniques. Le service client déploie des agents conversationnels. Le marketing branche des outils sur le CRM. La finance automatise des reportings. Le shadow AI est le shadow IT sous stéroïdes : mêmes causes, mêmes risques, vitesse décuplée.

Strate 4 : la gouvernance

Sans elle, les trois strates précédentes produisent de l’instabilité.

Quatre chantiers s’imposent : 

  1. Définir des politiques codifiées qui encadrent l’autonomie des agents ; niveaux d’autorisation, garde-fous, approbations humaines, auditabilité. Pas toutes les tâches ne méritent le même niveau de supervision. La documentation générée automatiquement peut tourner en autonomie. Un déploiement en production exige une validation multi-personnes.
  2. La responsabilité : quand un agent pousse un changement qui fait tomber un système critique, qui répond ? L’IA ne porte pas la responsabilité. L’humain qui a validé, si. Et si personne n’a validé, c’est le problème.
  3. La conformité réglementaire : l’EU AI Act impose des obligations de transparence et d’explicabilité aux entreprises qui déploient ces systèmes. Un agent qui prend des décisions impactant des clients sans traçabilité de son raisonnement expose l’entreprise à un risque juridique concret.
  4. La gouvernance transversale : qui décide quand l’IA traverse produit, data, sécurité, juridique et métiers ? Qui arbitre ? Qui porte le risque ? C’est précisément là que les entreprises se plantent : tout le monde veut l’IA, personne ne veut la responsabilité de ce qu’elle fait. Aujourd’hui, selon Gartner, 17 % des DSI gèrent cette coordination. 69 % s’attendent à le faire d’ici 2030. L’écart mesure l’ampleur du travail.

Les pièges

  • Le remplacement un pour un : remplacer un développeur par un agent sans changer le processus ne crée pas de gain. C’est pour cette raison que la majorité des entreprises équipées n’ont rien économisé.
  • La dette invisible : le « vibe coding », des non-spécialistes qui génèrent des applications fonctionnelles mais fragiles, produit des systèmes moins maintenables et plus vulnérables. Apiiro a documenté une multiplication par dix des failles de sécurité par mois dans des entreprises Fortune 50 entre décembre 2024 et juin 2025. Le coût ne se verra pas ce trimestre. Il se verra dans deux ans.
  • La fausse économie de la vitesse : produire trois fois plus de code qui s’empile en attente de revue, sature les environnements de test et génère plus d’incidents en production, c’est un recul net déguisé en progrès. L’accélération d’un maillon n’a de sens que si le reste du système de delivery l’absorbe.

Ce qui se décide maintenant

64 % des dirigeants technologiques prévoient de déployer l’IA agentique dans les 24 prochains mois (Gartner). Seule une minorité a les fondations pour le faire.

Trois décisions ne peuvent plus attendre et leur ordre est important :

  1. Auditer la réalité du shadow AI dans l’organisation, parce que c’est le seul moyen de savoir où on en est réellement avant de décider quoi que ce soit d’autre.
  2. Désigner une autorité claire responsable de la gouvernance agentique et de la fondation technique. Sans gouvernance, chaque initiative IA ajoute du désordre.
  3. Changer les métriques. Arrêter de compter les POCs et commencer à mesurer le délai de mise en marché, le taux de défaut en production, la capacité à absorber un changement de spécification.

L’IA ne remplace pas les équipes. Elle comprime un maillon de la chaîne et expose tous les autres. Les goulets étaient déjà là : tests, intégration, mise en production, coordination, clarification du besoin. La lenteur générale les masquait. L’accélération de l’IA les révèle. Les organisations qui restructurent autour de ces goulets prendront un avantage structurel. Les autres découvriront, projet après projet, qu’elles accélèrent au mauvais endroit.