Outscale, l'anti-Amazon Web Services français Une architecture matérielle basée sur Cisco et NetApp

Si le projet de développement de Tina OS est possible pour une start-up telle qu'Outscale, c'est aussi parce que Laurent Seror a fait le choix de restreindre de manière drastique le nombre de serveurs et d'équipements réseau et stockage supportés. "Avec Tina, nous avons fait le choix d'un stack matériel parfaitement défini dès le départ avec les serveurs UCS et les équipements réseau de Cisco d'un côté, et les équipements de stockage NetApp de l'autre", explique le PDG d'Outscale. "Nous avons réduit la cardinalité des possibilités. C'est un choix qui est structurant, c'est vrai, mais qui nous permet d'aller beaucoup plus vite et nous concentrer sur les fonctions à valeur ajoutée."

Reconstruire son système d'information dans le cloud

outscale suit une approche 100% 'software defined'.
Outscale suit une approche 100% "Software Defined". © Outscale

Un choix industriel qui peut paraitre paradoxal puisqu'en parallèle Outscale mise à 100% sur un approche "Software Defined", tant pour le volet réseau que stockage. Tina OS apporte une couche d'abstraction complète qui lui permet de gagner en souplesse dans l'administration de la plateforme : "Nous faisons du 'software defined storage', ce qui signifie que le stockage est géré par Tina et que les volumes sont virtualisés de même que pour les fonctions réseau avec du Software Defined Network et du Network Functions Virtualization", détaille Laurent Seror. "Grâce à cela, avec Tina on peut ainsi construire son propre cloud privé sur un cloud public, un 'virtual private cloud' avec son propre adressage réseau, son câblage virtuel, ses VPN et ainsi étendre le réseau d'entreprise dans le cloud."

Objectif : réduire les coûts d'administration

Le choix de Cisco et NetApp par Outscale peut sembler paradoxal car l'approche "Software Defined" est souvent couplée à l'achat de matériels peu évolués, donc bien moins coûteux que ceux de Cisco. "Nous avons fait ce choix pour plusieurs raisons. La première est liée au support à long terme des équipements. Avec le 'commodity hardware', vous êtes dépendant de la chaine de production en Asie de vos fournisseurs. Ils vont toujours vers les composants les moins chers et les techniques de fabrication les moins coûteuses. Les composants changent très fréquemment. C'est problématique car nous certifions nos plateformes pour qu'elles aient un niveau de performance qui soit globalement le même partout dans le monde, que ce soit sur nos infrastructures en France, en Chine ou aux Etats-Unis, et qu'elle soit uniforme dans le temps. Nous pouvons certifier ainsi les niveaux de service par rapport au client final, ce qui est impossible si le matériel sous-jacent bouge trop", commente-t-on chez Outscale. "Cisco nous garantit que les composants de ses équipements n'évoluent pas dans le temps sur les 18 mois d'une génération Intel."

25 000 cœurs avec 50 000 VM en production en moyenne

Autre élément clé pour Outscale, les coûts d'administration moins élevés. "Dans la technologie UCS Manager, Cisco fournit des Service Profiles, c'est-à-dire des templates de comportement qui font que lorsqu'on ajoute du matériel, celui-ci va automatiquement s'enregistrer sur UCS Manager. En termes de TCO, cela coûte beaucoup moins cher de manager un grand nombre de machines au travers d'UCS Manager que via des outils tiers, des feuilles Excel, etc.", note Laurent Seror. "Pour le choix de NetApp, nous faisons du Software Defined Storage. Il existe de multiples systèmes de fichiers open source, mais soit les performances sont moins bonnes car NetApp dispose de composants spécialisés (ASIC), soit les cas extrêmes de pannes simultanées sont mal gérés, soit ces solutions délivrent moins d'informations en termes de supervision ou même de facturation ce qui n'est pas un sujet qui intéresse vraiment les développeurs open source."

En outre, Laurent Seror privilégie des machines qui offrent la plus haute densité de cœurs. Un serveur type chez Outscale, c'est un bi-processeur des Haswell E5 2699 de 18 cœurs, avec jusqu'à 720 Go de RAM pour les plus grosses machines. "C'est ce qui nous permet d'avoir un grand nombre de VM sur chaque machine, et ainsi diminuer l'effet de fragmentation et obtenir un meilleur rendement global de l'infrastructure tout en fournissant de grosses machines aux clients qui font du in-memory computing, du calcul intensif, etc.", explique Laurent Seror. Sur ce parc installé de 25 000 cœurs, le responsable estime que 50 000 VM sont en fonctionnement, en moyenne. "Pour la France seule, notre vitesse de croisière est à environ 6 000 VM, pour des pics qui peuvent monter jusqu'à 20 000 VM."