AWS re:Invent 2014 :“Cloud is the new normal”, et la performance devient clé

Amazon Web Services confirme sa capacité à livrer de nouveaux services innovants, et place la performance au cœur des enjeux actuels de ses clients entreprises.

Plus de 13 000 personnes ont assistées cette année à la grand-messe d'Amazon Web Services à Las Vegas du 10 au 14 novembre 2014, soit plus du double du nombre de participants qu'à l'Openstack Summit Paris la semaine précédente (déjà un bel événement et un buzz indéniable autour de cette technologie du cloud open-source).

L’innovation c’est bien…

Lors de la seconde keynote, Werner Vogels, CTO d’AWS, a dynamisé une audience de spécialistes en enchainant les annonces de nouveaux services, qui seront largement commentées par ailleurs : Container, Lambda, Key Management, Config, Code deploy, Service Catalog et Aurora, une base de données supposée 5 fois plus performante que MySQL et 10 fois moins chère qu’Oracle.
Le sujet de la performance n’a jamais été autant évoqué, servant notamment de conclusion à cette keynote, avec l’annonce d’une instance c4 surboostée (cpu 2.9GHz dernière génération, jusqu’à 36vCPU, optimisée par défaut pour du stockage bloc EBS), ainsi que de nouvelles performances EBS : SSD (jusque 16To, 10kIOPS et 160Mo/sec) et ‘Provisionned IOPS’ (20kIOPS et 320Mo/sec).
Pour ces charges de travail en production, la performance, et plus particulièrement le ratio prix/performances ou valeur/performances, est donc plus que jamais d’actualité.
Nous réalisons ces tests pour le compte de nos clients et observons effectivement des écarts importants entre les performances et les prix des configurations. Par exemple, pour une application nécessitant 4GB de RAM, la ressource c3.large est non seulement optimisée pour le CPU (compute), mais également 2 fois plus performante en vitesse RAM que la m3.medium alors que ces deux ressources ont la même quantité de RAM, et ce pour un écart de prix de l’ordre de 50 %.

... mais l'industrialisation requiert la performance

Dès le premier jour, Andy Jassy, Senior Vice-President d’AWS, avait donné le ton en clamant “cloud is the new normal” : son adoption est désormais évidente pour les entreprises, qu’il s’agisse de dev&test et désormais de production. 
Les entreprises ont tout intérêt à rechercher la configuration type correspondant au plus juste aux enjeux de chacune de leurs applications, tout en maitrisant les coûts associés : quantité et vitesse de la RAM, puissance CPU, I/O disques et bande passante...
Brendan Gregg, Senior Performance Architect chez Netflix et client majeur d’AWS, a ainsi expliqué que les performances et les prix de chaque type de produit (gabarits de VM et disques) sont benchmarkés en permanence. Ces tests représentent un investissement certain, financier et humain, mais sont vitaux pour soutenir la capacité de l’entreprise à optimiser ses coûts et innover.Dernière preuve de la pertinence du sujet : des dizaines de sessions ont été organisées sur le sujet et plus de 1000 personnes ont assisté à chaque session benchmarking animées par AWS et Netflix.
Il ne faut pas croire que toutes les ressources cloud se ressemblent, et qu'il suffit de lancer plus de ressources pour améliorer les performances : l'analyse de la performance est un sujet primordial. Pour une fois, ce qui s'est passé à Vegas ne doit pas rester à Vegas...