Comment Amazon transforme le marché des puces IA

Comment Amazon transforme le marché des puces IA L'accord signé entre Amazon et Databricks révèle l'importance de la mise en place d'un écosystème impliquant logiciel et matériel pour monétiser l'intelligence artificielle.

Patiemment, un accord après l'autre, Databricks continue d'enrichir son écosystème autour de l'IA. La jeune pousse de San Francisco, spécialiste de la gestion des masses de données dans le cloud, a signé en octobre un accord de cinq ans avec Amazon pour l'usage de ses puces Trainium AI. Basées sur une architecture maison du géant du commerce en ligne, elles sont conçues spécifiquement pour entraîner et utiliser des modèles d'IA.

Databricks compte les mettre au service de Mosaic AI, son offre qui permet aux entreprises de customiser des modèles d'IA existants sur leurs propres données pour les adapter à leurs cas d'usage et leur modèle d'affaires. Un service mis en place suite au rachat de la jeune pousse du même nom à l'été 2023.

Cette adaptation de modèles existants, ou fine tuning, est perçue comme le Graal susceptible de permettre aux entreprises de monétiser l'IA, les grands modèles généralistes étant rarement adaptés aux besoins des entreprises et la construction d'un nouveau modèle de A à Z étant très coûteuse, donc réservée à une poignée de grands noms, comme les Gafam, OpenAI Mistral ou encore Anthropic. Le fine tuning peut permettre, par exemple, de construire un chatbot pour le service client, ou de faciliter la recherche d'informations par les employés au sein de l'entreprise.

Amazon bâtit son écosystème autour de l'IA

Le fine tuning requiert des puces spécifiques, moins coûteuses que les processeurs graphiques (GPUs) de Nvidia, des puces très puissantes conçues pour entraîner des algorithmes d'IA. Elles ont par exemple permis la création du grand modèle de langage (LLM) GPT-3, sur lequel était basée la première mouture de ChatGPT. C'est précisément ce qu'entend proposer Amazon avec ses puces Trainium AI, bien moins chères à l'usage que celles de Nvidia, selon l'entreprise.

"On peut faire tourner le même modèle qu'avec Nvidia pour deux fois moins cher", affirmait ainsi David Brown, vice-président informatique et réseaux chez Amazon Web Services (AWS) en juillet dernier.

A l'instar d'autres géants de la tech comme Google, Apple et Meta, Amazon a commencé à développer ses propres puces afin de limiter sa dépendance aux coûteux GPUs de Nvidia (la fameuse "taxe Nvidia"), mais aussi pour disposer de puces parfaitement adaptées à ses propres besoins, en termes de puissance informatique et d'efficacité énergétique. Par rapport à l'utilisation d'une GPU générique de Nvidia, ces grandes entreprises perdent en flexibilité ce qu'ils gagnent en performance pour leur propre cas d'usage. Amazon a récemment tissé un accord avec Intel pour que le géant américain des semi-conducteurs fonde ses puces.

Désormais, ces sociétés entendent exploiter leur expertise acquise en interne en la commercialisant auprès de leurs clients. Géant du cloud, Amazon tisse ainsi avec son partenaire Databricks des liens qui ont à la fois trait au software et au hardware, bâtissant pas à pas son propre écosystème.

"Amazon cherche à construire un écosystème cohérent pour stimuler l'adoption. A court terme, elle ne fera sans doute pas beaucoup d'argent avec ça, car pour courtiser Databricks, Amazon a certainement proposé un prix très compétitif, mais c'est un pari qu'elle espère gagnant sur le long terme", affirme Antoine Chkaiban, analyste chez News Street Research, un cabinet d'intelligence de marché spécialisé dans les nouvelles technologies.

Fondée en 2013, Databricks est née avec l'essor de l'informatique en nuage. A l'instar de Snowflake, elle aide les entreprises à facilement identifier, trier et gérer les données, où qu'elles se trouvent (dans les différents clouds utilisés, sur les serveurs de l'entreprise, dans les applications, etc.). Son expertise dans la gestion des masses de données, qui constituent le vivier de l'IA, la conduit à rapidement s'adresser aux entreprises souhaitant utiliser cette technologie.

"Nous voyons ce financement et notre croissance rapide comme une validation supplémentaire de notre vision d'une plateforme de traitement des données, capable de répondre aux différents besoins, dont l'intelligence artificielle", expliquait Ali Ghodsi, patron de Databricks, suite à une levée de fonds de l'entreprise en 2021.

La jeune pousse surfe en outre très vite sur la vague de l'IA générative. Début 2023, alors que ChatGPT défraie la chronique, Databricks sort Dolly, un grand modèle de langage conçu pour permettre à ses clients de construire facilement des applications sur cette technologie. Le rachat de MosaicML, une startup de l'IA générative, s'inscrit également dans cette tendance. La valeur de la société, non cotée en bourse, est estimée à 43 milliards de dollars.

Pour l'entreprise, cet accord avec Amazon signifie une baisse des coûts pour ce qui devient progressivement le cœur de son modèle d'affaires : aider les entreprises à mettre leurs données au service de l'IA.

"Pour une entreprise comme Databricks, qui a atteint une taille critique et travaille sur des workloads assez stables, passer sur un écosystème comme celui d'Amazon, moins riche que celui de Nvidia, mais aussi moins coûteux, représente un intérêt financier certain", affirme Antoine Chkaiban.

On aurait cependant tort de croire que les accords de ce genre menacent la suprématie de Nvidia sur les puces d'IA, selon l'analyste. "Pour des cas d'usage plus poussés, comme tout ce qui touche à la recherche en IA, où l'architecture du modèle peut changer à tout moment et où il faut en permanence renouveler les librairies utilisées, l'écosystème de Nvidia reste roi et n'est pour l'heure menacé par personne."