Werner Vogels (Amazon) "Nous installerons au moins trois datacenters AWS en 2017 en France"

Nouveaux projets et services, déploiement dans l'Hexagone… Le directeur technique d'Amazon décrypte sa stratégie en matière de cloud.

JDN. Vous avez annoncé l'ouverture de datacenters en France. Quand vont-ils entrer en production ?

Werner Hans Peter Vogels  a été promu CTO d'Amazon en janvier 2005 et vice président du groupe en mars de la même année. © AWS

Werner Vogels. Je n'ai pas de date de lancement précise à communiquer pour le moment. Mais ce sera cette année. Nous ouvrirons simultanément trois zones de disponibilité en France, toutes basées dans la région de Paris. Chacune fera l'objet de multiples redondances en matière de fournisseurs réseau, d'électricité... et disposera d'au moins un datacenter. Ce qui veut dire que nous allons installer d'emblée au moins trois datacenters en France.

Construisez-vous les bâtiments de vos datacenters français ou allez-vous installer vos infrastructures dans des centres de données en colocation ?

En général, nous construisons nos propres bâtiments. Nous avons des prérequis très stricts dans ce domaine. La plupart des installations existantes ne sont pas conformes aux garanties que nous souhaitons fournir à nos clients, à la fois d'un point de vue de la sécurité et de la fiabilité, mais aussi de l'environnement naturel. Nos spécificités techniques sont nombreuses, en termes d'infrastructure électrique, de refroidissement, d'écoulement d'air...

Au sein de vos datacenters français, l'infrastructure serveur et réseau sera-t-elle équivalente à celle de vos centres de données américains ?

En France, nous déployons la même infrastructure qu'a Francfort, Londres et Dublin. Ce sera d'ailleurs aussi le cas à Stockholm. Cette politique nous permet d'abord d'optimiser et lisser nos coûts partout en Europe, mais aussi de garantir à nos clients qui souhaitent se déployer sur ce continent une infrastructure informatique identique quelle que soit la zone.

Allez-vous mettre votre région française en conformité avec le nouveau Règlement général européen sur la protection des données (RGPD) ?

Nous faisons en sorte d'être systématiquement en conformité avec les réglementations locales sur les données. Nous avons le même objectif que le législateur : protéger les informations de nos clients. Ce sera le cas avec le nouveau Règlement général européen sur la protection des données. Sur ce point, nous avons travaillé avec le groupe de travail européen Article 29 qui a certifié notre démarche contractuelle de protection des données. Ce qui veut dire que si l'un de nos clients a signé notre accord de protection de données, il sera conforme au nouveau RGPD qui entrera en vigueur en mai 2018.

Quels services AWS seront disponibles via vos datacenters français à leur ouverture ?

Tous nos services de base seront disponibles à l'ouverture : nos services de calcul, de stockage, la base DynamoDB... Mais il faut savoir que nos équipes locales sont indépendantes, et les déploiements de services additionnels sont réalisés selon les régions en fonction des feedbacks des clients.

"La base Aurora est le service AWS à plus forte croissance en termes d'adoption"

En France par exemple, Amazon API Gateway est un service très demandé. Je pense notamment à Engie ou Schneider Electric qui affichent des besoins importants en matière d'intégration de données, notamment dans l'IoT. Dans un autre domaine, je pense aussi à Décathlon qui a recours à SAP en mode cloud, sur AWS, et qui pourrait vouloir basculer ce système sur nos infrastructures françaises.

Quel est le service cloud d'AWS à plus forte croissance en termes d'adoption ?

Il s'agit de notre service de base de données Aurora. Un grand nombre de clients souhaitent migrer leurs serveurs de données internes vers des bases open source en mode cloud. Mais ces bases open source n'offrent pas une performance et une fiabilité de niveau entreprise. C'est pour combler ce manque que nous avons bâti Amazon Aurora.

En front-end, Aurora intègre les principales bases open source que sont MySQL et PostgreSQL. Côté back-end, il s'adosse à une infrastructure que nous avons complément reconstruite, avec une gestion des réplications sur trois zones de disponibilité et des dispositifs d'optimisation des performances revus dans leur majorité. Ce travail permet à nos clients de bénéficier d'un service 5 à 6 fois plus performant comparé aux serveurs open source de base, à un prix (ou coût total d'acquisition ndlr) dix fois inférieur.

Qu'en est-il de votre service de migration de bases de données, alias AWS Database Migration Service (DMS) ?

Grâce à ce service, nos clients ont pu migrer, au total, 28 000 bases de données, que ce soit vers Amazon Aurora, DynamoDB, Redshift, etc. L'un des besoins les plus importants exprimés par les clients utilisant DMS concerne la reprise de bases Oracle sur nos services de bases de données. Aux côtés de son caractère multi-bases, ce service présente plusieurs avantages. Il gère notamment bien la convergence de schémas, et aide à prendre en charge les procédures stockées. Enfin, DMS est temps réel, ce qui permet de réaliser la migration sans arrêter l'application puis switcher sur le nouveau système sans interruption de service.

L'intelligence artificielle fait-elle partie de vos priorités en matière de R&D ?

Oui. Mais il faut bien comprendre que ce domaine n'est pas nouveau pour nous. Amazon a recours à l'intelligence artificielle depuis sa naissance, notamment en matière de recommandation client. L'IA traite l'historique des données utilisateur pour réaliser des prédictions. Nous réalisons ce type de traitement sur des milliards de commandes pour détecter des tendances et réaliser du scoring, notamment pour fixer les prix, les bons niveaux de stock… Nous avons des centaines de personnes au sein d'Amazon qui travaillent sur le sujet. C'est pour ça que nous avons décidé de commercialiser un service cloud de machine learning.

"Notre service de containers EC2 est utilisé pour orchestrer des architectures de microservices"

En revanche, le deep learning, qui porte sur des contenus complexes de type image, vidéo ou sur la manipulation de texte, est un domaine plus récent chez Amazon. Nous avons dû attendre d'avoir une meilleure plateforme matérielle et logicielle pour le mettre en œuvre et le proposer à nos clients. Nos puissantes instances EC2 P2, à base de processeurs graphiques, permettent désormais d'exécuter ce type d'application. Nos services de deep learning sont basés sur l'infrastructure applicative MXnet. Elle présente l'avantage d'être multi-langages (avec une programmation déclarative et impérative, ndlr), alors que d'autres logiciels comme Tensorflow et Caffe se limitent au développement déclaratif.

Au-dessus de cette infrastructure, nous avons bâti un environnement à la portée des non-data scientists. Et sur cette couche, nous avons adossé nos services d'IA (Lex, Polly, ndlr). Des briques que les développeurs peuvent directement exploiter dans leurs applications, sans être experts en deep learning.

Qu'en est-il de la prise en charge de Docker et des containers sur AWS ?

Nous proposons un service de containers sur Amazon EC2 (baptisé EC2 Container Service, ndlr), optimisé pour Docker. Nous avons un certain nombre de clients qui l'utilisent à un niveau assez avancé, notamment pour opérer des architectures de microservices. C'est le cas par exemple de la société américaine Nexdoor qui a pu réduire ses coûts de 60% en matière de VM en optimisant l'exécution des tâches applicatives grâce aux containers. Le principal avantage de ce service réside dans son intégration à Amazon EC2. Cette infrastructure va en effet permettre d'automatiser toute votre architecture en termes d'équilibrage de charge, de gestion de la tolérance de panne...

Werner Hans Peter Vogels est titulaire d'un Ph.D. en science informatique à l'université d'Amsterdam aux Pays-Bas. De 1994 à 2004, il est chercheur au département des sciences informatiques de l'université de Cornell, spécialisé notamment dans la gestion des systèmes critiques distribués. De 1999 à 2002, il est aussi président et CTO de Reliable Network Solutions. Il rejoint Amazon en 2004 en tant que directeur de la recherche des systèmes. Il est promu CTO du groupe en janvier 2005 et vice président en mars de la même année.