Plateforme unique ou multiplateforme pour sa stratégie d'IA ? Les experts ont tranché

Plateforme unique ou multiplateforme pour sa stratégie d'IA ? Les experts ont tranché Multiplier les plateformes permet de gérer certains risques. Mais cet avantage ne pèse pas bien lourd face aux coûts engendrés.

Lorsqu'on se lance dans une démarche d'IA se pose la question de savoir quelle(s) plateforme(s) choisir. Vaut-il mieux privilégier une plateforme unique ou plusieurs ? La question est loin d'être anodine.

Globalement, une grande entreprise aura tendance à choisir plusieurs plateformes. Objectif affiché : répartir les risques en évitant de mettre tous ses œufs dans le même panier. Si l'un des éditeurs fait évoluer sa stratégie, notamment tarifaire, ou ses conditions générales d'utilisation, il sera toujours possible de basculer vers un autre des fournisseurs retenus. C'est une question de gestion du risque et de stratégie SI. "Nous avons des clients qui s'engagent dans cette voie", reconnait Didier Gaultier, patron de l'IA au sein d'Orange Business Digital Services France.

Mais faire le choix du multiplateforme ne va pas sans contrainte. D'abord, cette politique implique évidemment des coûts de licence plus importants. Ensuite, elle nécessite de multiplier les compétences en interne. "Embaucher des ingénieurs qualifiés sur plusieurs plateformes est extrêmement coûteux", estime Stéphane Roder, CEO et fondateur du cabinet de conseil français AI Builder. Enfin, cette logique se traduit par une multiplication des silos de données. Ce qui se révèle contre-productif en termes de résultats.

"Embaucher des ingénieurs qualifiés sur plusieurs plateformes est extrêmement coûteux"

"Lorsqu'on se retrouve avec des plateformes d'IA en silos, on peut être par ailleurs confronté à des conflits d'intérêt et à des manques de communication entre les équipes, chacune ayant pour objectif de défendre son environnement et son pré carré au détriment des autres", prévient Didier Gaultier.

D'où l'importance d'opter pour une plateforme d'IA unique. "On suit alors la démarche du data mesh à travers laquelle chaque département de l'entreprise devient un fournisseur de données. Dans ce modèle, il peut certes y avoir plusieurs plateformes d'IA à la marge. Mais la meilleure méthode consiste quand même à opter pour une plateforme socle de référence pour l'ensemble des services et entités", assure Didier Gaultier.

Dans cette perspective, se tourner vers un hyperscaler apparaît comme un choix assez naturel. Tous possèdent en effet des solutions permettant de combiner IA générative et IA traditionnelle. Certains déclinent d'ailleurs des offres selon la cible. AWS par exemple propose le service SageMaker pour l'IA traditionnel et Bedrock pour l'IA générative. Idem chez Microsoft avec Azure Machine Learning Studio d'un côté et Azure OpenAI de l'autre. Les deux acteurs cherchent néanmoins à faire converger leur solution.

"Pour une grande entreprise, le choix d'une plateforme est une course de longue haleine. Tous les protagonistes autour de la table, notamment les différents métiers, doivent se mettre d'accord. Chez certains clients, c'est un projet qui peut s'étaler sur plus d'un an, avec à la clés l'intervention de trois à quatre consultants chacun spécialisé et certifié sur un cloud différent", prévient Didier Gaultier. "La solution finale retenue dépendra du cas d'usage ciblé, mais aussi des types de données disponibles."

Autre possibilité : se tourner vers les studios de data science historique comme Dataiku ou Knime qui implémentent tous deux de plus en plus de fonctionnalités de GenAI. Principale avantage de ces plateformes : elles peuvent être installées sur n'importe quel cloud. Elles livrent ainsi un atelier complet compatible avec l'hyperscaler de son choix. "C'est une approche nouvelle que nous n'avons pas encore déployée chez nos clients, mais que nous envisageons", confie Didier Gaultier. "Elle permet de combiner IA générative et IA traditionnelle au sein d'une solution unique. Le tout sur une même plateforme."

Microsoft au centre du jeu

Du côté d'AI Builder, on rappelle qu'Azure, depuis son partenariat avec OpenAI signé en 2019, a pris "une avance considérable" sur ses concurrents. Une avance qui continue de se creuser avec le temps, notamment depuis le lancement de GPT4, GPT-4o et l'intégration d'agent. "Dans l'IA, nous observons beaucoup d'entreprises qui, du coup, laissent tomber AWS et Google Cloud pour se tourner vers Microsoft Azure", constate Stéphane Roder, avant de pondérer : "On observe beaucoup d'attente autour de Copilot (l'assistant intelligent de Microsoft 365, ndlr). Mais les clients qui s'engagent dans cette voie sont pour le moment déçus des résultats dans la mesure où Copilot n'est pas encore équipé d'un LLM orchestrateur digne de ce nom." Mais l'intégration de cette dernière brique n'est qu'une question de temps.

Du côté d'Orange Business Digital Services France, on relève d'ailleurs un certain nombre de clients ayant fait d'abord le choix de Microsoft Copilot, mais qui se sont très vite rendu-compte qu'ils souhaitaient des fonctionnalités plus personnalisés. "Nous les avons alors accompagnés vers Azure Machine Learning, Azure OpenAI, le tout combiné avec la plateforme data Azure fabric", détaille pour finir Didier Gaultier.