Pourquoi certaines équipes data livrent en quelques heures ce que d'autres mettent des semaines à produire ?

Unnest

Une révolution silencieuse secoue la data : l'IA décuple le "everything as code"… et le legacy freine déjà ceux qui tardent.

Il se joue, au sein des équipes data, une révolution discrète, mais implacable. À première vue, rien n’aurait changé : mêmes dashboards, mêmes pipelines, mêmes discours sur la transformation. Pourtant, sous cette continuité trompeuse, l’écart se creuse déjà. D’un côté, des équipes que l’IA propulse. De l’autre, des équipes qu’elle aide à peine. Non parce que les premières seraient supérieures, mais parce qu’elles travaillent dans une langue que la machine sait lire. De cette fracture naissent le recul des environnements legacy, l’essor du « everything as code », la baisse des coûts de production et, au bout du compte, une nouvelle hiérarchie de la performance.

Une fracture silencieuse

Les écarts de productivité entre équipes data ne tiennent ni au talent ni aux budgets. Ils reposent sur une question simple : l’IA peut-elle lire l’environnement technique dans lequel l’équipe évolue ?

Depuis dix-huit mois, une ligne de partage s’impose. D’un côté, des équipes qui travaillent en SQL, YAML ou Python, le tout versionné dans Git. Pour elles, l’IA agit comme un levier immédiat : elle lit un projet, en saisit la logique, écrit un modèle, ajoute les tests, met à jour la documentation. Ainsi, ce qui demandait hier des heures ne requiert plus que quelques minutes.

De l’autre, des équipes encore prises dans des interfaces graphiques propriétaires : ETL en drag and drop, outils BI paramétrés par menus, logiques métier enfermées dans des fichiers XML illisibles. Ces équipes ne manquent ni de compétence ni de rigueur. Mais leur environnement demeure une boîte noire pour l’IA. Or, à l’heure où celle-ci s’impose comme le socle de la productivité, être illisible revient, de fait, à devenir lent.

La différence ne tient donc pas tant aux personnes qu’au cadre technique dans lequel elles travaillent.

Des gains réels, mais très inégalement répartis

L’IA s’est imposée dans les équipes tech. Le DORA Report 2026 indique en effet que 90 % des professionnels du secteur l’utilisent au quotidien, et le Stack Overflow Survey 2026 précise que 84 % des développeurs y ont recours ou comptent le faire. Aussi, une méta-analyse menée auprès de Microsoft, Accenture et de plusieurs entreprises du Fortune 100 évalue les gains de productivité à 26 % en moyenne, avec des pics à 39 % chez les profils juniors.

Mais cette moyenne masque l’essentiel. Certaines équipes gagnent plus de dix heures par semaine, d’autres presque rien. L’IA n’est pas une baguette magique, c’est un amplificateur. Elle accélère ce qui est bien structuré et bute sur ce qui ne l’est pas. En somme, elle récompense les bons environnements autant qu’elle révèle les mauvaises fondations.

Les outils legacy n’ont pas été conçus pour ce monde

Le problème d’un Informatica ou d’un Talend ne tient pas au fait qu’il s’agirait de mauvais outils, mais à ceci qu’ils ont été pensés pour un monde où l’humain clique, configure et corrige, non pour un monde où un agent IA collabore avec lui.

Quand la logique métier se trouve enfermée dans des flux visuels propriétaires, stockée dans un XML indigeste, sans Git natif, sans tests automatisés et sans documentation exploitable, le LLM devient aveugle. Et l’humain reste, lui aussi, entravé : chaque tâche demeure manuelle, chaque évolution laborieuse, chaque automatisation difficile.

Selon dbt Labs, les équipes sur ETL legacy consacrent 80 % de leur temps à la maintenance et seulement 20 % à la création de valeur. De son côté, la Macif, en migrant d’Informatica vers dbt, a ramené ses temps de traitement de deux heures à cinq minutes et ses coûts de licence d’un million à 200 000 euros par an. Datafold, enfin, estime le marché des migrations d’ETL legacy à plus de dix milliards de dollars, signe manifeste d’une dette technique devenue industrielle.

Le nouveau paradigme : « everything as code »

On parle beaucoup de « BI as code », mais le mouvement est plus vaste. Ce que vivent les équipes data en 2026 n’est autre que le passage à un modèle où chaque composant du stack s’écrit en texte. Et devient donc lisible, compréhensible et manipulable par un agent IA.

L’infrastructure passe par Terraform ou Pulumi. Les pipelines, par dbt ou SQLMesh. La BI évolue avec Evidence ou Hex, en Markdown et SQL versionnés dans Git. L’orchestration s’appuie sur Airflow ou Dagster. La qualité des données, sur Great Expectations ou Soda. Quant à la documentation, dbt docs, MkDocs ou README, elle cesse d’être le parent pauvre du système, car tout ce qui est textuel peut être enrichi, corrigé et maintenu par un LLM.

Le motif reste le même : du code, versionné, testable, lisible par un LLM, automatisable par un agent. C’est une chaîne. Si un maillon manque, alors l’agent s’arrête et l’humain reprend la souris.

Le coût de production s’effondre, et ce que nous livrons change de nature

Ce qui demandait des jours se règle désormais en quelques heures. Explorer une nouvelle codebase, ce qui exigeait une à deux semaines, peut aujourd’hui ne prendre que trente minutes. Écrire les tests unitaires d’un pipeline dbt, autrefois affaire d’une journée, se boucle en une à deux heures, documentation comprise. Vous l’aurez compris, cette révolution n’est pas sans effets.

Cette accélération produit deux effets majeurs

Le premier rebat les cartes du « make vs buy ». Pendant longtemps, les entreprises ont acheté des outils SaaS non parce qu’ils étaient idéaux, mais parce que développer en interne coûtait trop de temps et trop d’argent. On payait pour la commodité, quitte à n’utiliser qu’une faible part des fonctionnalités. Mais lorsqu’un agent peut construire en quelques heures un front sur mesure, maintenable et versionné, l’équation change.

Le second effet touche aux livrables eux-mêmes. Le dashboard n’est plus la réponse réflexe. En réalité, 80 % des demandes de dashboards correspondent à des questions ponctuelles qu’un conversationnel gouverné traite plus vite, mieux et sans dette de maintenance. Et lorsqu’une interface s’impose vraiment, la construire sur mesure devient souvent plus simple et moins coûteux que paramétrer un outil générique. Les produits data de demain seront donc moins des tableaux de bord standardisés que des chatbots gouvernés, des data apps, des rapports auto-générés ou des APIs, conçus en quelques jours pour un besoin précis.

Le temps joue contre l’attentisme

À chaque tournant technologique, la tentation est la même : attendre. Observer, temporiser, remettre à plus tard au nom de la prudence. Mais l’histoire est sévère avec les attentistes. Ecommerce, mobile, cloud : chaque fois, ceux qui ont tardé ont dû courir derrière des leaders déjà partis.

La bonne nouvelle est que cette transformation peut être progressive. Nul ne migre un stack entier en un week-end. En revanche, on peut commencer par un pipeline, un rapport, un jeu de tests. Puis mesurer les gains. Et, bien souvent, cela suffit à emporter la conviction.

Si vous pilotez une équipe data ou sa feuille de route technologique, quatre priorités s’imposent :

1. Basculer vers le « everything as code »

C’est la condition de tout le reste. Tant que la logique métier reste enfermée dans des interfaces propriétaires, l’IA ne peut rien amplifier.

2. Repenser les livrables

La majorité des demandes de dashboards relèvent de questions ponctuelles que le conversationnel gouverné traite mieux, plus vite et sans maintenance.

3. Réévaluer les arbitrages « make vs buy »

Chaque renouvellement de licence doit désormais être examiné à l’aune des nouveaux coûts de production.

4. Former les équipes au workflow IA

Travailler dans un terminal, relire du code généré, construire un contexte robuste : le data engineer de 2026 écrit moins de code qu’il n’en supervise. Aussi, ce changement de posture exige un accompagnement structuré.

Au fond, tout se joue maintenant. Chaque trimestre passé dans un stack que l’IA ne sait pas lire est un trimestre de productivité perdu, et un trimestre de retard de plus face à ceux qui ont déjà basculé. Ceux qui prennent ce virage dès aujourd’hui ne gagneront pas seulement du temps, ils prendront une avance durable.

Sources

DORA Report 2025 (dora.dev)

Stack Overflow Developer Survey 2025

Méta-analyse MIT Economics — Copilot Experiments (Microsoft, Accenture, Fortune 100)

dbt Labs — "Talend & Informatica Migration"

Datafold — "The Opportunity Hidden in Legacy ETL Migrations"

La Macif — Migration Informatica vers dbt (case study dbt Labs)