Comment AWS compte conquérir les clouds privés

Comment AWS compte conquérir les clouds privés Partenariat avec VMware, commercialisation de serveurs, réseau hybride… Amazon multiplie les initiatives pour combler le fossé entre les infrastructures IT internes et son cloud public.

Avec 34% de parts de marché selon Synergy Research, Amazon Web Services est sans conteste le numéro un mondial du cloud public. Mais pour poursuivre la course en tête, la filiale cloud d'Amazon a bien conscience qu'elle doit composer avec l'existant de ses clients, qui s'orientent en masse vers des architectures informatiques hybrides. Si elle cite volontiers les cas de Veolia, première entreprise du Cac 40 à annoncer vouloir être "data centerless" à horizon 2020, et du fournisseur d'énergie italien Enel, qui entend franchir ce pas en basculant pas moins de 10 000 serveurs sur le nuage dès cette année, ces exemples restent rares. Le recours au modèle hybride demeure une constante dans de nombreuses organisations et AWS se devait de prendre davantage en compte ce phénomène. Ce que certains de ses concurrents, Microsoft en tête, avaient déjà fait. 

"Les entreprises ont compris que le cloud était un passage obligé pour innover plus vite", observe Stephan Hadinger, senior manager, solutions architecture chez AWS. "Dans le même temps, elles doivent composer avec leur existant IT. Chaque entreprise vit la mutation du cloud à son rythme." Pour assurer cette montée progressive vers le nuage, AWS propose toute une panoplie de solutions. La plus ancienne s'appelle Direct Connect. Comme son nom l'indique, elle vise à établir une connexion réseau dédiée entre les data centers d'une entreprise et le IaaS d'Amazon. En complément de Direct Connect, le groupe américain vient d'annoncer un tout nouveau service réseau de cloud hybride lors de son événement mondial re:Invent. Baptisé AWS Transit Gateway, il permet de bâtir des infrastructures réseau combinant plusieurs environnements AWS (notamment de VPC) avec  des connexions VPN vers des serveurs d'entreprise installés sur site.

Toujours à l'occasion de re:Invent, AWS a levé le voile sur Outposts, une offre taillée pour porter ses services cloud (et leur modèle tarifaire) dans des data centers et espaces de colocation tiers ou sur des infrastructures internes. A l'instar de l'Azure Stack de Microsoft, Outposts est commercialisé sous forme de serveurs machines à installer, sur lesquels les services AWS sont activables à la demande. Accompagnée de prestations de support et de maintenance, "cette solution permet d'utiliser les mêmes outils, le même matériel et les mêmes fonctionnalités que sur notre cloud dans l'optique d'une expérience hybride de bout en bout", détaille-t-on chez AWS. Deux variantes sont proposées : la première donne accès aux API du cloud public, la seconde à celles de VMware. Cette dernière possibilité est mise en œuvre dans le sillage du partenariat signé par Amazon avec le leader de la virtualisation (lire l'article : VMware accélère sa migration sur le cloud d'Amazon).

"Avec SBE1, une usine connectée pourra conserver une autonomie locale"

Pour ne pas encombrer le réseau, AWS propose aussi depuis 2016 Snowball, une solution de transport de données reposant sur des appliances sécurisées. Assurant l'import et l'export de données jusqu'à 100 To, Snowball se présente sous la forme d'une grosse valise grise de moins de 25 kg. Elle est fournie avec une tablette de configuration. Pour les migrations plus massives (vidéothèques, banques d'images…), AWS propose un container de 14 mètres de long, rempli de racks, et tiré par un semi-remorque. Ce Snowmobile permet de transférer jusqu'à 100 Po de données jusqu'aux data centers d'Amazon.

Via Snowball, le transfert peut être réalisé dans les deux sens, mais l'intérêt du dispositif ne s'arrête pas à là. En juillet dernier, AWS annonçait la prise en charge par Snowball Edge, la version edge de Snowball, d'un nouveau type d'instances EC2. Baptisées SBE1, elles peuvent être arrêtées, démarrées et mises à jour depuis l'appliance. Ce qui ouvre la possibilité d'exploiter des applications EC2 sur des implantations temporaires, où la connexion internet est limitée, intermittente voire inexistante. Une contrainte que connaissent des entreprises des secteurs du BTP, des transports, de l'énergie ou de La Défense. 

Sur le principe de l'edge computing, ces instances SBE1 sont optimisées pour la collecte et l'analyse de données au plus près des objets connectés tels les capteurs industriels. "Grâce à cette offre, une usine connectée pourra conserver une autonomie locale", indique Stephan Hadinger. "Elle continuera à fonctionner même en cas de coupure réseau, puis resynchronisera ses data avec le cloud une fois la liaison rétablie." Cette synchronisation sera assurée par Greengrass, un logiciel d'AWS qui permet d'exécuter en local des services de calcul, de messagerie et de mise en cache de données pour les appareils connectés.

Une expérience hybride de bout en bout

Annoncé cet été, le portage du service AWS RDS (Relational Database Service) sur les environnements VMware permet par ailleurs aux entreprises utilisant les solutions de software defined data center (SDDC) du spécialiste de la virtualisation d'étendre leurs capacités informatiques en recourant au cloud d'Amazon. Une entreprise pourra ainsi utiliser la solution d'AWS pour exécuter et gérer les bases SQL Server (Microsoft), Oracle, PostgreSQL, MySQL et MariaDB dans son propre centre de données sous VMware puis, si elle le souhaite, les migrer vers AWS. Pour Stephan Hadinger, rendre RDS compatible avec la plateforme VMware offre une garantie supplémentaire en termes de réversibilité. "Des clients nous disaient : RDS est très utile mais si on souhaite rapatrier les données dans notre data center nous en perdrons le bénéfice. Ce n'est plus le cas maintenant."

Selon Stephan Hadinger, la réversibilité passe aussi par le recours généralisé aux outils open source. Il en tient pour preuve la sortie récente d'EKS, l'offre de Kubernetes as a Service d'AWS. "Ce service managé ne présente pas d'adhérence. Les applications gérées par EKS sont 100% compatibles avec les applications gérées par n'importe quel environnement Kubernetes standard." Ce qui limite les frictions entre infrastructures cloud et internalisées.