Nova Act, agents autonomes, LLM fiabilisés : AWS affine ses IA pour les professionnels

Nova Act, agents autonomes, LLM fiabilisés : AWS affine ses IA pour les professionnels Au deuxième jour de re:Invent, AWS poursuit son déluge d'annonces centrées sur l'IA appliquée aux entreprises. Une nouvelle salve qui confirme le positionnement du groupe : privilégier des usages concrets, directement exploitables.

L'IA doit apporter une valeur ajoutée tangible aux organisations, et ce n'est pas encore le cas partout, rappelait le 2 décembre Matt Garman, CEO d'AWS lors de l'édition 2025 de Re:Invent à Las Vegas où se trouve le JDN. Pour accélérer l'adoption et surtout l'impact de ces technologies, AWS mise sur une IA résolument opérationnelle, en multipliant les services conçus pour "get things done" et répondre à des besoins métier immédiats. Ce mercredi 3 décembre, le groupe dévoile plusieurs outils destinés à améliorer concrètement les résultats obtenus avec les modèles, aussi bien pour les ingénieurs que pour les profils moins techniques. Le JDN, vous récapitule les annonces à retenir.

Amazon Nova Act, l'agentique appliqué aux interfaces 

Avec Nova Act, AWS applique l'agentique au niveau le plus concret : l'interface. Le service permet d'automatiser des workflows existants sans toucher au logiciel sous-jacent, simplement en laissant un agent opérer l'UI à la place d'un utilisateur humain. L'approche est pensée pour les entreprises qui veulent automatiser rapidement des tâches encore manuelles (navigation dans des écrans, saisies de formulaires…). AWS revendique une fiabilité supérieure à 90 %, grâce à un modèle d'action basé sur Nova et entraîné à identifier les éléments visuels et enchaîner les étapes pour réaliser des tâches en totale autonomie. "La majorité du travail des entreprises se fait dans un navigateur. Avec Nova Act, tout logiciel accessible via une interface web devient automatisable", nous explique Ben Schreiner, head of AI and modern data strategy chez AWS.  

Nova Act s'intègre aux IDE déjà massivement utilisés par les développeurs : VS Code, Cursor, Kiro… Il devient possible de déployer en parallèle des centaines d'agents avec supervision et observabilité intégrées. "Vous pouvez étendre un workflow à travers plusieurs applications d'entreprise", précise Ben Schreiner. "Partout où des humains faisaient encore de la saisie parce que les systèmes étaient isolés, Nova Act permet d'automatiser ces tâches", ajoute encore le spécialiste. 

Trois outils pour fiabiliser les LLM en production 

Amazon le rappelle : les modèles aujourd'hui déployés en production ne sont pas encore suffisamment fiabilisés, et les entreprises manquent de gains tangibles en matière d'accuracy. Pour répondre à ce point de friction, AWS introduit trois nouveaux outils destinés à améliorer la robustesse et la précision des modèles. Particularité notable : le groupe adresse simultanément les besoins des profils très techniques et ceux de développeurs plus généralistes, afin de couvrir l'ensemble du cycle de conception et d'optimisation des modèles.

Le premier outil, Reinforcement Fine-Tuning in Bedrock, vise clairement les développeurs non spécialistes. Le principe du reinforcement est d'améliorer un modèle en lui donnant un retour sur ce qui constitue un bon résultat via une reward function (une fonction qui note la qualité de la réponse). Les logs, l'historique des réponses produites par le modèle, servent alors de base pour ajuster automatiquement son comportement. AWS évoque des gains pouvant atteindre 66% selon les cas d'usage. 

Le second outil, Model Customization in Amazon SageMaker AI, s'adresse aux profils plus techniques. Le but est de modifier en profondeur les poids et le comportement d'un modèle. SageMaker automatise les étapes clés : génération de données artificielles pour enrichir l'entraînement, définition du workflow d'optimisation, et orchestration de l'entrainement. Les équipes peuvent partir d'un modèle open source (Llama, Qwen, DeepSeek…) ou d'un modèle Nova. 

Enfin, encore plus technique, AWS introduit Checkpointless Training sur Amazon SageMaker HyperPod. Au lieu de s'appuyer sur des checkpoints ponctuels (des sauvegardes régulières du modèle pendant l'entraînement), SageMaker enregistre l'entraînement en continu. Si une panne survient sur un cluster de GPU, l'entraînement reprend presque immédiatement, sans devoir recalculer des heures de travail perdues. L'objectif est clair : rendre les entraînements longs plus fiables et réduire les coûts liés aux interruptions pour les équipes techniques, et donc fiabiliser. 

Mémoire persistante et gestion du cadre sécuritaire des agents 

Pour finir, AWS ajoute à Bedrock AgentCore, sa plateforme d'orchestration d'agents, une mémoire persistante. Jusqu'ici, la plupart des agents fonctionnaient avec un contexte limité, incapable de conserver des informations au-delà d'une session. La persistance de la mémoire permet de stocker des interactions, des préférences ou des états intermédiaires, et de les réutiliser lors de futures exécutions. "L'objectif  est de permettre à un agent de gérer des workflows plus complexes, d'adapter ses actions au fil du temps grâce à la persistance de l'information", détaille Ben Schreiner. 

Une évolution qui s'accompagne de deux briques que les équipes AWS jugent tout aussi structurantes : les policies et les evaluations, pensées pour éviter que des agents autonomes n'agissent hors du périmètre prévu. "Les humains doivent définir les garde-fous : ce que l'IA peut faire ou ne pas faire en notre nom", rappelle le head of AI and modern data strategy chez AWS. Les policies imposent ces limites avant exécution et les evaluations permettent de vérifier que l'agent continue de se comporter comme prévu car "ce n'est pas comme du code qui s'exécute toujours de la même manière." Pour Ben Schreiner, ces outils répondent à des besoins imminents : "Même si les clients ne rencontrent pas encore ces problèmes, ils les auront très bientôt." 

Automatisation d'interfaces, outils de fiabilisation des modèles, gouvernance des agents : AWS cherche clairement à combler les écarts entre les promesses de l'IA et son impact réel dans les entreprises. Reste à savoir si ces briques deviendront un levier… ou un mur supplémentaire à franchir.