Charles Giancarlo (Pure Storage) "C'est aux applications d'aller aux données et non plus l'inverse"

Pure Storage, un des leaders dans le domaine des solutions de données, ambitionne d'apporter davantage de transparence dans l'industrie à l'ère du multicloud. Rencontre avec son CEO.

JDN. Pure Storage est aujourd'hui valorisée 1,5 milliard de dollars et connaît une croissance d'environ 30% par an, un chiffre impressionnant dans votre industrie. Comment l'expliquez-vous ?

Charles Giancarlo est le CEO de Pure Storage. © Pure Storage

Charles Giancarlo. Je crois que cela tient notamment au fait que nous avons vu avant les autres que l'avenir du stockage résidait dans le flash. Lorsque Pure Storage a été créée en 2009, cette technologie était considérée comme très peu fiable et n'était utilisée que dans quelques environnements bien précis, comme la téléphonie. Le stockage, lui, reposait encore sur des disques rotatifs, seule partie des ordinateurs qui demeurait mécanique. Pure Storage avait la conviction que le flash pouvait constituer la technologie de stockage du futur, et nous avons intégralement pensé notre logiciel dans cette optique, afin d'accentuer les forces du flash et diminuer ses faiblesses. Depuis, la technologie SSD a émergé, mais les entreprises qui y ont recours se sont contentées de prendre leurs produits existants et de remplacer le disque rotatif par cette technologie. C'est-à-dire par prendre un semiconducteur et l'utiliser comme un appareil mécanique, ce qui est inefficace par nature. Si leur technologie est moins chère, la nôtre est plus rapide, plus efficace, plus dense et plus fiable.

On est tenté d'en conclure que le stockage est une dimension quelque peu négligée dans le monde de l'informatique…

Tout à fait. Ce n'est pas l'aspect auquel on pense le plus au quotidien, mais il s'agit pourtant d'une composante fondamentale. Un ordinateur se décline en trois dimensions. Le processeur, industrie aujourd'hui dominée par Nvidia et Intel. Le réseau, qui permet aux ordinateurs de communiquer entre eux, et sur lequel on trouve des entreprises comme Cisco ou Arista. Et enfin le stockage des donnée. Et si celui-ci ne tient pas la distance face au processeur et au réseau, des goulets d'étranglement se forment, ralentissant les progrès de l'informatique.

Votre technologie est employée dans de nombreuses industries, mais les usages autour de l'intelligence artificielle semblent compter parmi les plus prometteurs.

Justement parce que cette technologie implique de transférer les données le plus rapidement possible. L'intelligence artificielle repose sur des processeurs graphiques qui traitent les données, et pour une efficacité maximale, il faut s'assurer d'un afflux constant. Si le transfert entre l'unité de stockage et le processeur est trop long, celui-ci demeure momentanément inactif, et comme on parle de machines très coûteuses et d'immenses quantités de données, on veut éviter de perdre du temps. Notre technologie permet de se prémunir contre cet écueil, et nous avons constaté notre réussite auprès de nos clients dans plusieurs secteurs d'activité, y compris l'industrie automobile, avec les progrès en matière de conduite autonome.

Nous collaborons également avec Man AHL, un fonds d'investissement britannique qui s'appuie sur des modèles mathématiques : les décisions sont prises uniquement par ordinateur, sans intervention humaine, pour effectuer des simulations et prendre des décisions d'investissement. Grâce à notre technologie, il est maintenant possible d'exécuter plus de simulations plus rapidement, ce qui accélère le délai de mise sur le marché. Un laboratoire de recherche canadien, PaigeAI, a également recours à notre technologie de stockage pour analyser plus efficacement l'évolution d'un cancer grâce à l'IA.

En 2009, vous avez su voir que l'avenir du stockage résidait dans le flash. Dix ans plus tard, comment envisagez-vous le futur de l'industrie ?

"Nous voulons donner à nos clients des choix qui leur permettent d'unifier différents clouds"

Je pense que les solutions hybrides, combinant stockage cloud et sur site, vont prendre de plus en plus d'importance afin d'offrir davantage de flexibilité au consommateur. Nous sommes aujourd'hui face à un phénomène intéressant. Il y a encore dix ans, les applications étaient statiques et cantonnées à du hardware conçu spécifiquement pour elles. Les données, elles, étaient mobiles et évoluaient facilement entre ces différents environnements. Aujourd'hui, c'est l'inverse : les applications sont fluides et peuvent être déployées n'importe où, notamment grâce à des outils comme Kubernetes et Docker. Mais les données, elles, prennent une place toujours plus conséquente, car nous en générons et traitons toujours davantage.

C'est donc aux applications d'aller aux données, et non plus l'inverse, ce qui implique de repenser totalement l'architecture des centres de données et des applications. Nous nous efforçons donc d'adapter notre solution pour refléter cette nouvelle réalité, offrir aux clients la possibilité de choisir la localisation optimale pour leurs données, et les traiter de manière efficace.

À l'automne dernier, vous avez dans cette optique annoncé votre stratégie autour du cloud hybride, ainsi que plusieurs services dans ce sens, dont un partenariat avec AWS...

En effet, dans l'objectif de procurer davantage de transparence aux clients. Aujourd'hui, lorsqu'une entreprise souhaite migrer le traitement de ses données sur le cloud, elle finit par faire un compromis technologique et repenser fondamentalement ses applications. Notre ambition est d'harmoniser les environnements cloud et sur site afin d'offrir davantage de flexibilité, de permettre aux clients de prendre ce type de décisions uniquement en fonction de critères économiques et préférentiels, et non plus technologiques.

Google a également fait des annonces dans ce sens lors de sa dernière conférence Google Cloud Next à San Francisco…

Le problème est que les différents acteurs cloud souhaitent se différencier les uns les autres, ils n'offriront donc jamais aux consommateurs une parfaite transparence d'un cloud à l'autre. C'est pourquoi nous voulons donner à nos clients des choix qui leur permettent d'unifier différents clouds et de savoir où se trouvent leurs données. Surveillez nos prochaines annonces à ce sujet en septembre à Accelerate, notre conférence annuelle utilisateurs…

Pensez-vous que le cloud finira par remplacer le stockage et le traitement des données sur site ?

"Le RGPD va jouer un rôle important"

Non, et pour plusieurs raisons. Le prix, d'abord. Les fournisseurs cloud sont des acteurs économiques comme les autres, il n'est pas dans leur intérêt de baisser les prix au-dessous d'un certain seuil. Or, si votre application n'a pas spécialement besoin des fonctionnalités du cloud, que vous voulez simplement la faire tourner en permanence de manière homogène, il sera toujours moins cher de le faire sur votre propre environnement. La personnalisation, ensuite. Le cloud est conçu de manière générique, et les applications dotées d'une architecture très spécifique fonctionnent de manière plus efficace sur site. Vient enfin la question des régulations, qui peuvent conduire à conserver ses données sur site pour exercer un plus grand contrôle sur elles. Je pense donc qu'il y aura toujours un équilibre entre ces deux options.

Pensez-vous que la mise en place de régulations va jouer un grand rôle dans l'avenir du stockage ?

Je le crois, oui. La sécurité et la confidentialité des données sont incontestablement à l'ordre du jour. Le RGPD va jouer un rôle important. On compte aussi des réglementations dans le domaine militaire et gouvernemental. Au niveau national, on parle beaucoup de la souveraineté des données… Tout cela ne va pas stopper l'expansion du cloud, mais influer sur la manière dont il est pensé et construit.

Et aussi