Werner Vogels (CTO d’Amazon) "Cela fait près de 25 ans qu'Amazon a recours à l'IA"

Le directeur technologique d'Amazon détaille les projets du géant de l'e-commerce et du cloud dans le domaine de l'intelligence artificielle

JDN. AWS accélère dans l'IA générative avec sa console Amazon Bedrock et le développement de ses modèles Titan, Parallèlement, le groupe a investi dans Anthropic et Hugging Face. Quels sont vos ambitions dans ce secteur ?

Werner Vogels est le CTO d’Amazon. © Amazon

Werner Vogels. Nous avons toujours pensé qu'il y avait de la place pour plusieurs acteurs. Nous ne croyons pas à la prédominance d'un seul modèle mais plutôt à la coexistence d'une multitude de LLM. C'est pourquoi avec Bedrock notre volonté est de proposer autant de modèles que possible à nos clients afin de leur permettre de les personnaliser et de les entraîner avec leurs données et créer les leurs. Ces modèles incluent Anthropic de Claude, Llama de Meta mais aussi d'autres modèles provenant de Hugging Face. Parmi eux se trouvent également nos modèles de fondation Titan, exclusifs à Bedrock. Nos clients sont encore dans une phase d'expérimentation. Notre objectif est de démocratiser l'accès à ces modèles pour nos entreprises clientes afin qu'elles puissent facilement intégrer l'IA générative dans leurs produits et services.

Comment voyez-vous le futur d'Alexa ? Pourquoi avoir procédé à plusieurs centaines de licenciements dans l'unité Alexa en novembre dernier ?

Les licenciements dans la division Alexa étaient liés à une restructuration. Comme beaucoup d'entreprises technologiques, Amazon a connu une période de forte croissance pendant la période Covid et cette réorganisation vise à nous permettre de gagner en efficacité dans le contexte actuel. Concernant le futur d'Alexa, nous avons récemment intégré de nouvelles capacités basées sur l'IA générative. Celles-ci offrent des progrès notables dans la recherche contextuelle et permettent d'améliorer l'expérience conversationnelle.

"L'IA générative va rendre les interactions avec Alexa plus naturelles et intuitives"

L'IA générative va rendre les interactions avec Alexa plus naturelles et intuitives. Il est important aussi de rappeler que la plupart des applications d'Alexa sont développées par des tiers. Ces nouvelles capacités IA seront utiles pour les développeurs qui créent des skills pour Alexa en leur permettant d'utiliser les LLM de leur choix.

Il sera donc bientôt possible d'interagir avec Alexa de la même manière qu'avec un chatbot IA ?

C'est l'idée. Il faut également noter qu'Alexa ne se résume pas aux appareils que nous commercialisons. Le développement du hardware avait surtout comme objectif de montrer les capacités de cette technologie. Il y a aujourd'hui de nombreuses entreprises qui ont intégré Alexa au sein de leurs propres systèmes ou hardware en y ajoutant leurs applications, comme des constructeurs automobiles par exemple. Tout comme AWS ou Bedrock pour les LLM, Alexa a été pensé et développé comme une plateforme afin que d'autres puissent créer des skills dessus.

Dans un billet publié sur votre blog All Things Distributed ,vous anticipez une nouvelle vague de LLM qui prendront davantage en compte la culture et les spécificités locales. Pourquoi ?

Actuellement, la majorité de ces modèles sont entraînés sur ce qu'on appelle le common crawl, à savoir un ensemble de données majoritairement dominé par l'anglais, et culturellement influencé par l'Europe occidentale et les Etats-Unis. En conséquence, si vous développez un chatbot IA en l'entraînant sur ces données, vous obtiendrez des réponses majoritairement centrées sur la culture américaine.

"Les LLM pourront voter pour la meilleure réponse à apporter selon le contexte"

Par exemple, un utilisateur basé au Moyen-Orient cherchant à obtenir des suggestions d'activités ou de sorties pourrait se voir recommander d'aller boire une bière avec ses amis. Le modèle n'aura pas le contexte nécessaire pour comprendre que l'utilisateur est sans doute de confession musulmane et que cette réponse n'est peut-être pas la plus appropriée. Même constat si vous demandez à un LLM de rédiger un résumé ou une critique d'un ouvrage. Les résultats seront très différents en fonction des pays et des données utilisées pour son entraînement.

AWS ambitionne donc de faciliter l'émergence de nouveaux modèles à travers le monde ?

Oui. Et je crois également que nous devrions voir davantage de collaboration entre tous ces modèles. Une fois connectés entre eux, ces LLM pourraient voter pour savoir quelle est la meilleure réponse à proposer en fonction de tel ou tel contexte par exemple. Nous croyons fortement que Bedrock sera la plateforme qui permettra de démocratiser la création et l'accès à tous ces modèles, et ainsi faire de cette collaboration multi-agents une réalité.

De quelle manière Amazon utilise-t-elle l'IA en interne ?

Cela fait près de 25 ans qu'Amazon a recours à l'IA, soit bien avant l'arrivée de cette nouvelle vague de modèles d'IA générative. Si vous regardez le fonctionnement d'Alexa par exemple, tout est basé sur l'IA : il s'agit de convertir la voix en texte, puis de comprendre l'intention avant de l'exécuter. Cela fait également longtemps que nos clients e-commerce bénéficient de fonctionnalités IA, que ce soit pour obtenir des traductions ou des recommandations de produits.

"Un client Amazon peut obtenir des meilleures réponses à des recherches mal formulées"

Sans IA, nous n'aurions jamais pu proposer la livraison en une journée. Un humain ou un groupe d'individus n'auraient jamais pu examiner manuellement la manne de données liées aux commandes d'Amazon. 

L'IA nous aide à détecter les commandes frauduleuses mais aussi à affecter nos marchandises dans nos entrepôts. Nous comptons près de 30 000 robots présents dans nos centres de distribution, qui se déplacent, sans se heurter, pour déplacer des colis et effectuer différentes tâches de manière autonome. En bref, cette technologie a été cruciale pour développer notre chaîne d'approvisionnement.

Et comment tirez-vous partie des récents progrès dans l'IA générative ?

De plusieurs manières. Par exemple, dans la rédaction de légendes. Si vous avez seulement 5 mots à remplir pour rédiger une légende, l'IA peut vous suggérer du texte en se basant sur une image ou une description. Ce sont des outils que nous utilisons et que nous avons mis à disposition de nos vendeurs tiers. Côté clients, l'IA générative peut se montrer utile pour résumer de nombreux avis, mettre en avant les avantages et inconvénients d'un produit mais aussi améliorer la recherche. 

Par exemple, Amazon peut désormais répondre à une recherche un peu vague du type "quels sont les meilleurs cadeaux à offrir à mon grand-père pour son anniversaire" en comprenant mieux le contexte de votre question. Les nouveaux services d'IA vont permettre d'aller plus loin sur ces différents sujets.

"L'AGI implique que la machine puisse pouvoir exprimer une intention"

Certains acteurs du secteur technologique, à l'image d'Elon Musk, semblent penser que l'IA finira par remplacer le travail humain. Quel est votre avis ?

Il est intéressant de s'intéresser à ce qui s'est produit dans le passé. Lorsque nous nous sommes lancés dans le secteur du cloud, nous avons permis à nos clients d'héberger facilement leurs données sur AWS et de bénéficier de gains de productivité de l'ordre de 30 à 40%. Je pense que la même chose va se produire avec l'IA en rendant les ingénieurs bien plus productifs. Cette technologie devrait permettre de mieux exploiter toute la créativité et l'intelligence de l'humain en lui retirant certaines tâches à faible valeur ajoutée.

L'IA créera donc davantage d'emplois qu'elle ne va en détruire selon vous ?

Rappelez-vous qu'il y a encore quelques dizaines années, on trouvait à tous les étages des entreprises des collaborateurs munis de calculatrices pour réaliser toutes sortes de calculs. L'invention des tableurs et de logiciels comme Lotus 123 ou Excel n'a pas mis toutes ces personnes au chômage mais a permis de faire un meilleur usage de l'intelligence humaine. C'est l'idée énoncée par le "paradoxe de Jevons" qui explique que les progrès technologiques ou énergétiques conduisant à une amélioration de l'efficacité se traduisent par une plus grande consommation du produit ou des ressources.

Un mot sur l'artificial general intelligence (AGI) : pensez-vous qu'il sera possible d'interagir un jour avec une IA capable de raisonner comme un humain ?

Je suis quelque peu sceptique sur cette question. L'AGI implique que la machine puisse pouvoir exprimer une intention. Or, l'intention humaine est guidée par des croyances, des valeurs, un passé, etc. Tous ces éléments nous permettent d'évaluer une situation dans un contexte précis avant de décider d'une action. Je pense que nous en sommes encore loin aujourd'hui. Un LLM ne sait pas faire des mathématiques. Il peut sans doute répondre que deux fois trois font six car il l'aura lu quelque part, mais il n'est pas capable de résoudre une équation polynomiale par exemple. Et quand bien même l'IA pourrait y parvenir, nous ne pourrions toujours pas parler d'AGI, même si beaucoup de personnes y verraient une réelle avancée dans cette direction.

Werner Vogels est directeur technologique (chief technology officer) chez Amazon. Il est l'un des pionniers de l'approche d'Amazon en matière de cloud computing. Avant de rejoindre Amazon en 2004, Werner Vogels était chercheur en systèmes distribués à l'université Cornell. Il est titulaire d'un doctorat de la Vrije Universiteit d'Amsterdam et est l'auteur de nombreux articles sur les technologies de systèmes distribués pour l'informatique d'entreprise.