Adrian Cockcroft (AWS) "De plus en plus de grands groupes ferment leurs data centers pour basculer sur Amazon Web Services"

Le vice-président de la stratégie de cloud architecture d'AWS décrypte le virage pris par l'entreprise en matière de processeurs et de cloud décentralisé.

JDN. Vous venez tout juste de lancer la deuxième génération de votre processeur ARM, Graviton. Vous prévoyez de recourir à cette puce pour un nombre croissant de services. Comptez-vous à terme généraliser cette technologie à toutes vos instances ?

Adrian Cockcroft est vice-président de la stratégie cloud architecture d’AWS. © AWS

Adrian Cockcroft. Avec Graviton, l'objectif premier est de réduire le coût de nos services en évoluant vers une infrastructure de processeur low-cost. La version 2 de Graviton, dont le prix reste optimisé, se traduit par des performances bien meilleures. Du coup, nous allons pouvoir utiliser cette nouvelle génération pour remplacer certains de nos systèmes à base de processeurs Intel.

Notez que nous concevons également des processeurs pour certains types de workload spécifiques à nos produits. C'est le cas par exemple pour Aqua (un système de cache matériel distribué conçu pour accélérer l'exécution de l'entrepôt de données Redshift d'AWS, ndlr). En parallèle, nous continuerons à utiliser les processeurs Intel, AMD et Nvidia. Nos clients souhaitent également bénéficier des fonctionnalités propres à ces processeurs.

Quel a été votre principal challenge en 2019 ?

De plus en plus de grands groupes basculent sur AWS et ferment leurs data centers. Dans les secteurs d'activité critiques où la sécurité est prioritaire, comme c'est le cas dans l'aérien, la banque ou la santé, les organisations n'ont plus seulement recours au cloud pour développer de nouveaux projets digitaux. Comme les autres, elles se lancent dans la migration de leur infrastructure IT cœur de métier et décommissionnent leurs anciens systèmes pour aller vers le cloud. Parmi nos clients, nous comptons désormais un nombre significatif de ces entreprises qui s'engagent dans cette voie. Mon principal défi a été de partir de ces exemples individuels, dont nous avons traité les problèmes au cas par cas, pour bâtir des modèles et solutions standards particulièrement résilients.

En France, le cas de la Société Générale illustre semble-t-il assez bien cette nouvelle politique de relation client. Selon nos informations, ce groupe bancaire a signé une convention juridique avec vous, dans laquelle vous vous engagez sur trois points : lui donner la possibilité d'auditer lui-même votre infrastructure (logicielle et matérielle), rendre ses applications réversibles et, enfin, assurer que ses données clients soient stockées sur la région d'AWS où elles sont régulées…

C'est juste. Globalement, nous cherchons d'abord à résoudre via nos solutions existantes les problématiques de ces clients issus de secteurs d'activité critiques. Si un client a besoin de quelque chose de plus spécifique, nous discutons ensemble pour comprendre ce qu'il veut faire et cerner ses besoins. Puis en fonction de la faisabilité, nous débloquons des workloads.

La Société Générale a signé cette convention juridique directement avec Andy Jassy, CEO d'AWS. Ce type d'initiative est nouvelle pour vous ?

Pour nos clients les plus importants, c'est une démarche dont nous avons besoin. Amazon Outpost (l'offre de cloud hybride d'AWS, ndlr) a suivi le même cheminement. Verizon nous a demandé s'il était possible de déployer ses serveurs AWS chez lui. Nous avons donc packagé des machines dans des racks pour lui permettre d'installer nos services sur son propre réseau. Le produit Outpost qui vient de passer en phase de commercialisation est né de là. La démarche est toujours de faire bénéficier à d'autres clients des demandes au départ individuelles.

Vous arrivent-ils de concevoir des serveurs sur-mesure pour un client particulier ?

Nous concevons du matériel informatique spécifique uniquement dans des cas bien particuliers. Par exemple pour les agences gouvernementales de sécurité. Ou encore en Chine ou la régulation implique de développer une pile logicielle et d'opérer différemment la sécurité et l'isolation de nos régions cloud (AWS a déployé deux régions en Chine, à Beijing et Ningxia, ndlr).

Votre infrastructure va devenir de plus en plus globale. Qu'est-ce que cela change en termes de gouvernance ?

Il s'agit là du plus important changement d'architecture qu'a connu AWS depuis des années. Comme vous le savez, AWS est historiquement centralisé en termes de ressources informatiques. Avec les local zones annoncées lors de re:Invent 2019, nous allons passer de quelques dizaines de régions aujourd'hui à de très nombreuses zones cloud locales, installées en agglomérations, et qui auront chacune pour vocation à cibler un plus petit nombre de clients.

"Nous allons évoluer vers une architecture cloud massivement distribuée"

Ce mouvement devrait aller assez vite.  Pour déployer une Local Zone, il suffit d'installer nos machines dans un data center en colocation et de les connecter au réseau. C'est bien plus simple et bien plus rapide que de mettre en œuvre une nouvelle région AWS dont l'infrastructure doit prendre en charge l'intégralité de notre control plan.

Combien anticipez-vous de local zones d'ici un an ?

C'est trop tôt pour donner une estimation. Pour l'heure, nous avons ouvert une première local zone à Los Angeles. Tout dépendra ensuite de la demande des clients. Du côté d'Outpost en revanche, c'est plus clair. Ce service a été annoncé un an avant son lancement. Nous avons par conséquent eu l'occasion de recueillir de nombreux feedbacks le concernant. Nous anticipons sa mise en œuvre par plusieurs milliers de clients à travers le monde.

Dans ce contexte, nous allons évoluer vers une architecture cloud massivement distribuée. Tout l'enjeu pour nous est désormais de savoir comment bâtir et déployer des applications sur des milliers voire des dizaines de milliers de terminaisons cloud dans les prochaines années. Je pense que ce nouvel environnement cloud va par ailleurs donner naissance à une nouvelle catégorie de produits et à de nouvelles start-up qui vont chercher à en tirer parti. Evidemment, l'IoT et le gaming devraient s'y adosser pour répondre à leur problématique de faible latence.

Il semble qu'AWS ne construise pas de data centers pour déployer ses régions cloud en dehors de l'Amérique du Nord, mais qu'il fasse plutôt appel à des fournisseurs de centres de données… C'est le cas en France ou en Espagne.

S'il existe déjà des data centers sur place, nous les utilisons. S'il n'y en a pas, nous en construisons. Ce qui évidemment prend plus de temps.

Vous venez de commercialiser un service cloud (Amazon Braket) conçu pour développer, simuler et exécuter des algorithmes d'informatique quantique. Via ce service, vous donnez accès à trois calculateurs quantiques : D-Wave, IonQ et Rigetti. Avez-vous identifié des applications commerciales sur ce terrain ?  

En termes commercial, un besoin se fait clairement sentir autour des algorithmes de chiffrement quantique. Nous avons commencé à réaliser des implémentations pour des clients qui souhaitent anticiper le jour où l'informatique quantique permettra de casser les systèmes de chiffrement classiques. 

Quel est le service AWS à plus forte croissance en termes d'adoption aujourd'hui, et celui qui pourrait exploser demain ?

La base de données managée Aurora enregistre actuellement un taux de croissance historique comparé à tous les services que nous avons lancés jusque-là. Pour la suite, notre offre serverless Lambda est sans doute la solution AWS qui générera le plus d'engouement dans les prochaines années. Nous l'avons beaucoup améliorée pour en réduire les contraintes, en termes de temps d'exécution, de latence, avec pour objectif de supporter un nombre plus important de workloads. Lambda conserve en parallèle ses avantages, notamment pour le développement d'architectures de nouvelle génération (orientées microservices, ndlr) et pour la gestion des pics de trafic importants.

Adrian Cockcroft a été nommé vice-président de la stratégie cloud architecture d'AWS en octobre 2016. Précédemment, Adrian Cockcroft a notamment travaillé comme ingénieur pour Sun Microsystems, de 1988 à 2004, avant le rachat du groupe informatique américain par Oracle en 2009. Il a ensuite rejoint la R&D d'eBay avant d'être recruté par Netflix d'abord comme directeur de l'ingénierie web puis comme cloud architect.