L'avenir de la mémoire flash

Zoom sur le centre de données tout flash, la courbe technologique de la mémoire flash et les perspectives de la prochaine nouvelle mémoire à semi-conducteurs.

Cela fait environ 20 ans que la mémoire flash - dans sa variante NAND extrêmement dominante - est entrée pour la première fois dans le centre de données de l'entreprise.  Depuis lors, elle a transformé le stockage des données et augmenté considérablement les performances d'un large éventail d'applications en remplaçant le disque rotatif, beaucoup plus lent, comme support par défaut pour le stockage primaire des données. Avec ces deux décennies d'histoire de la technologie flash derrière nous, nous avons pensé qu'il était temps de poser quelques questions fondamentales sur l'avenir de cette technologie. Nous avons réuni un groupe d'experts et leur avons demandé quand le centre de données tout flash pourrait devenir courant, où en est la courbe technologique de la mémoire flash et quand la prochaine mémoire à semi-conducteurs révolutionnaire pourrait émerger en tant que complément ou successeur de la mémoire flash.

Lorsque la technologie flash a fait son entrée dans les centres de données à la fin des années 90, elle n'était utilisée que pour stocker un sous-ensemble de données, pour un sous-ensemble d'applications sensibles aux performances. Mais comme les prix de la flash ont continué à baisser et qu'elle a été utilisée pour stocker des données pour un éventail d'applications de plus en plus large, les observateurs du secteur ont commencé à se demander combien de temps il faudrait avant que la flash ne supplante complètement le disque pour créer ce que l'on appelle des centres de données tout flash.  Deux décennies plus tard, nous avons posé cette question à notre panel. Tous les experts ont convenu que la technologie flash ne supplanterait pas complètement le disque avant de nombreuses années, et la majorité d'entre eux ont déclaré que le centre de données tout-flash resterait une rareté dans un avenir prévisible. Toutefois, d'autres réponses ont été étonnamment différentes.

Alfred Chase Hui, vice-président des affaires internationales chez DapuStor, un fournisseur de disques flash, de processeurs de systèmes sur puce et d'autres produits liés à la périphérie, a identifié les principaux facteurs à prendre en compte pour répondre à cette question : "Il est raisonnable de s'attendre à ce que les centres de données tout-flash deviennent de plus en plus courants à l'avenir. Toutefois, la transition vers les centres de données tout-flash peut prendre un certain temps en raison de facteurs tels que le coût, la compatibilité et les exigences de performance", a-t-il déclaré.

D'autres experts du panel ont mis en évidence deux causes expliquant l'avenir indéfiniment prolongé du disque. La première est ce qu'ils estiment être une différence de cinq à sept fois dans le prix par TB de capacité entre la mémoire flash et le disque.

Le second est le besoin des entreprises de stocker des volumes importants et toujours croissants de données qui ne sont pas utilisées activement, à des fins telles que la formation à l'IA/ML et à l'analytique, l'archivage et la conformité, ainsi que les sauvegardes.

Shawn Meyers, directeur technique sur le terrain chez Tintri, un fabricant de systèmes de stockage adaptés aux environnements virtualisés, a déclaré : "Le besoin de stockage d'archives à moindre coût, qui comprend encore des bandes dans de nombreux endroits, va demeurer. La quantité de disques achetés par les hyperscalers dépasse aujourd'hui celle des lecteurs flash.  Vous n'avez besoin d'un stockage rapide que pour les données sur lesquelles vous travaillez activement, et non pour les données que vous stockez pour un usage ultérieur.

Le commentaire de M. Meyers au nom de Tintri était très similaire aux déclarations faites par d'autres membres de notre panel, que l'on pourrait qualifier collectivement d'argument "la bande n'est pas morte".   Malgré les prédictions de mort de la bande au cours des deux dernières décennies, l'utilisation de la bande - au moins en termes de volume de données stockées - a augmenté plutôt que diminué, en raison de la nécessité de stocker des volumes toujours plus importants de données froides ou rarement accessibles.

Peter Donnelly, directeur des produits chez le fournisseur de réseaux de stockage ATTO, partage le point de vue majoritaire selon lequel les centres de données tout-flash "n'ont pas de sens" et qu'il y aura toujours un besoin de plusieurs niveaux de stockage. Il ajoute que, contre toute attente, les technologies émergentes telles que l'IA/ML renforcent cet argument : "Les entreprises ont besoin d'accéder à des pools de stockage massifs pour la formation à l'apprentissage automatique, mais une fois cette formation terminée, les données doivent être déchargées vers des technologies de stockage plus rentables. Ainsi, bien que cela puisse être contre-intuitif, on peut affirmer que les applications d'IA émergentes augmentent en fait le besoin de systèmes de stockage de deuxième et troisième niveau, comme les disques et même les bandes."

Coby Hanoch, PDG et fondateur de Weebit Nano, un développeur de mémoires de nouvelle génération, partage le point de vue des autres sur les bandes et ajoute une autre raison pour laquelle il pense que les centres de données tout-flash ne seront jamais répandus, à savoir que d'autres technologies à semi-conducteurs seront utilisées dans les centres de données. "Je doute qu'il y ait un jour des centres de données entièrement flash, et ce pour plusieurs raisons. Il y aura toujours un besoin de bandes ou de disques, simplement parce qu'ils permettent de stocker d'énormes quantités de données de manière peu coûteuse hors ligne, et il y aura une quantité croissante de données auxquelles on accède rarement, mais qu'il faut tout de même conserver. Et d'ici à ce que la flash prenne le contrôle des centres de données, les nouvelles NVM [mémoires non volatiles], comme la ReRAM et la MRAM, commenceront à occuper une partie des centres de données", a déclaré M. Hanoch pour Weebit Nano.

Steven Umbehocker, fondateur et PDG d'OSNexus, un fournisseur de systèmes de stockage évolutifs définis par logiciel, a souligné que le disque est ancré dans les systèmes de stockage basés sur l'objet et que le géant Seagate, fabricant de disques, a prédit un développement continu de la technologie. "Aujourd'hui, la réduction des coûts de 5:1 entre la mémoire flash et le disque fait du disque utilisé dans le stockage objet une alternative plus solide à la bande et, avec la livraison par Seagate de disques de 30, 40 et 50 To attendus depuis longtemps au cours des deux prochaines années, la piste du disque sera prolongée", a déclaré M. Umbehocker au nom d'OSNEXUS.

Toutefois, les équipes informatiques ne se limitent pas aux coûts d'achat initiaux lorsqu'elles choisissent entre le disque et la mémoire flash.  Randy Kerns, stratège principal au sein du cabinet d'analyse Futurum Group, a déclaré : "Il y a un aspect du passage à la technologie flash qui est souvent négligé quant à sa valeur pour les clients : "Il y a un aspect du passage à la technologie flash qui est souvent négligé en ce qui concerne sa valeur pour les clients : avec l'accélération des performances de la technologie flash, il y a une valeur de simplicité. Par simplicité, j'entends la nécessité de gérer les caractéristiques de l'appareil pour le placement/la distribution des données en termes de performances. C'est tout simplement plus simple lorsque le stockage est plus performant. C'est un facteur qui incitera les entreprises à opter pour des technologies plus performantes".

Cependant, certains centres de données sont déjà "tout flash".

Pour Tintri, M. Meyers affirme que les centres de données tout-flash existent déjà. "La réponse à cette [question sur les centres de données tout-flash] dépendra de la taille, de l'échelle et de la portée du centre de données.  Il existe de nombreux centres de données de petite et moyenne taille qui sont déjà entièrement flash. Mais il s'agit généralement de centres de données à client unique.  Les grandes entreprises, les [fournisseurs de services] d'hébergement régionaux et les grands centres de données auront de la rouille en rotation pour toutes les périodes de temps que vous voulez prévoir.

Dennis Hahn, analyste principal au sein du cabinet d'études Omdia, partage cet avis et prédit qu'il existe une catégorie de centres de données d'entreprise qui seront entièrement flashés d'ici 2028. Il s'agit des centres de données exploités par des entreprises qui utilisent de plus en plus les nuages d'infrastructure publics pour héberger leurs applications critiques ou moins sensibles aux performances, qui ne nécessitent pas de stockage flash, et qui utilisent ces mêmes nuages pour stocker leurs données froides ou celles auxquelles on accède rarement.

"Les centres de données sur site qui se concentrent principalement sur l'exécution d'applications critiques passent rapidement au stockage flash. Omdia prévoit que dans les trois à cinq années à venir, la majorité de ces centres de données sur site passeront entièrement à la technologie flash", a déclaré M. Hahn.

En d'autres termes, le disque est en train de quitter les centres de données des entreprises pour rejoindre les centres de données hyper-cloud - où M. Hahn, comme d'autres membres de notre panel, estime qu'il existera encore pendant de nombreuses années, en raison de son faible coût et de l'absence de besoin de performance lors du stockage de données froides. M. Hahn a donné une autre raison de ne pas utiliser la mémoire flash pour stocker ce type de données : "Étant donné que ces [magasins de masse, d'archives et de sauvegarde] sont souvent en interface avec l'internet relativement lent, le débit est plus important que la recherche à faible latence." Pour la même raison, le débit est plus important que l'accès aléatoire, ajoute-t-il : "Les principaux cas d'utilisation tels que la vidéo et les médias riches pourront utiliser efficacement les disques durs pendant longtemps, ainsi que d'autres technologies telles que l'IdO et les pipelines de collecte de données ELT [Extract, Load, Transform]."

Roy Illsley, analyste en chef chez Omdia, ajoute : "Un autre élément à prendre en compte est la tendance à prolonger la durée de vie des équipements informatiques dans le cadre d'une stratégie de durabilité environnementale et de réduction des coûts. Par conséquent, les clients sont moins enclins à remplacer une technologie jugée ancienne par une nouvelle technologie brillante. L'impact sur les centres de données sera l'utilisation d'un mélange de technologies qui pourraient avoir jusqu'à sept ans dans certains cas, ce qui signifie que l'arrivée de centres de données "tout flash" n'est pas une perspective immédiate.

Curtis Anderson, architecte logiciel chez Panasas, un fournisseur de logiciels de stockage pour les charges de travail gourmandes en performances, a un avis similaire sur la prévalence des centres de données tout-flash, mais il se base sur la taille d'un centre de données d'entreprise plutôt que sur les charges de travail qu'il héberge : "Nous pensons qu'il existe une limite entre les déploiements inférieurs à une capacité donnée et les déploiements supérieurs à cette limite.  Cette limite se déplacera lentement vers le haut mais, à notre avis, elle suivra surtout la croissance des besoins en capacité, de sorte que le centre de données tout-flash sera toujours là dans deux ans", a-t-il déclaré.

Pour illustrer son propos, M. Anderson explique qu'une entreprise pourrait se contenter de stocker des systèmes de fichiers relativement petits de 200 To en flash, car cela ne lui coûterait qu'environ 150 000 dollars de plus que de les stocker sur disque et ses performances seraient bien meilleures.  Mais pour une capacité 100 fois supérieure de 20 Po, le coût supplémentaire serait de 12 millions de dollars, ce qui serait difficile à justifier. "À moins d'avoir des exigences très particulières, il serait préférable d'utiliser cet argent pour acheter des processeurs et des processeurs graphiques", a-t-il déclaré.

La courbe de la technologie flash a encore de beaux jours devant elle

Le développement technologique suit souvent une courbe dans laquelle le taux d'amélioration des coûts ou des performances diminue lentement au fil du temps, suivant une courbe qui s'aplatit régulièrement à mesure que les progrès techniques deviennent de plus en plus difficiles à réaliser. En effet, vers 2010, de nombreux observateurs prédisaient que le développement technique de la mémoire flash NAND était sur le point de se heurter à un mur en termes de nombre de cellules de mémoire pouvant être intégrées dans une seule puce flash. À cette époque, la mémoire flash était un élément bien établi et croissant du paysage informatique des entreprises, non seulement en raison de ses performances et d'autres avantages par rapport aux disques, mais aussi parce que son prix n'avait cessé de chuter au cours de la décennie précédente. Si les fabricants de puces flash se heurtent au mur technologique prévu, les prix commenceront à baisser beaucoup plus lentement en termes de dollars par unité de capacité de stockage.   

Toutefois, en 2013, Samsung a contourné la limitation prévue en livrant les premières puces flash 3D composées de plusieurs couches de cellules de mémoire, au lieu d'une seule couche de cellules comme c'était le cas auparavant. Cela signifiait plus de cellules de mémoire par puce et, effet secondaire extrêmement précieux, la possibilité de stocker plus de bits de données dans chaque cellule de mémoire, ce qui réduisait à nouveau les prix par TB. Tous les grands fabricants de flashes ont rapidement suivi l'exemple de Samsung et, depuis lors, le nombre de couches par puce a augmenté rapidement. Mais c'était il y a dix ans. La mémoire flash approche-t-elle aujourd'hui de la fin ou de la partie la plus plate de sa courbe technologique ?

"Les personnes qui affirment que la loi de Moore est morte ne tiennent pas compte de la technologie 3D NAND.  Cette technologie a donné à la flash NAND un nouveau moteur pour continuer à ajouter des bits à la puce, et chaque année, les ingénieurs de processus trouvent des moyens ingénieux de la pousser plus loin qu'on ne l'aurait cru possible.  C'est un long chemin pour répondre "non" à cette question.  Il faut s'attendre à une baisse des coûts d'au moins deux ordres de grandeur supplémentaires au cours des prochaines années, à mesure que la densité des puces continuera d'augmenter", a déclaré Jim Handy, directeur général du cabinet d'analystes Objective Research.

Les annonces faites lors du dernier sommet sur la mémoire flash ont confirmé ces perspectives, selon Leander Yu, président-directeur général de Graid Technology, un fournisseur de systèmes de stockage définis par logiciel et alimentés par le GPU. "Les fabricants de mémoire flash tels que Samsung, SK Hynix, Kioxia, Western Digital et Micron continueront d'innover avec des feuilles de route pour une plus grande densité avec plus de couches utilisant des techniques d'empilage, des innovations en matière d'architecture et de conception, et plus de bits par cellule (par exemple, cellule de niveau penta ou PLC)", a-t-il déclaré. Les premières puces flash multicouches commercialisées en 2013 comprenaient 24 couches de cellules de mémoire et stockaient 128 Gbits. M. Yu a rappelé la démonstration faite cette année par SK Hynix d'une puce à 321 couches stockant 1 Tbit, et la prédiction faite l'année dernière par Samsung de livrer des puces à 1 000 couches d'ici à 2030.

M. Anderson a ajouté un contexte important à ces perspectives en soulignant le fait que la technologie des disques continue également à se développer et que, par conséquent, les prix des disques continueront à baisser à peu près au même rythme que ceux de la technologie flash. "La technologie flash poursuivra sa courbe d'amélioration inexorable, mais nous ne voyons pas cette courbe s'accélérer pour gagner du terrain sur les disques, c'est-à-dire abaisser le multiplicateur 5x-7x sur les $/TB, ou décélérer par rapport aux disques", a-t-il déclaré.

Amos Ankrah, spécialiste des solutions chez Boston, un fournisseur de serveurs et de systèmes de stockage à haute performance, a confirmé que la technologie flash était encore en développement : "Il y a quelques facteurs, dont certains ont été décrits dans les réponses précédentes, qui indiqueraient que la technologie flash est encore en progression : "Il existe quelques facteurs, dont certains ont été décrits dans les réponses précédentes, qui indiquent que la technologie flash est encore en phase de développement. Il y a un argument à prendre en compte lorsque la technologie flash actuelle passe à de nouvelles technologies, mais avec les niveaux de développement qui sont encore entrepris par les entreprises qui développent le stockage flash, cela semble suggérer qu'il y a encore une trajectoire ascendante à suivre avant que le plateau ne soit atteint", a déclaré M. Ankrah pour Boston.

Il n'y a pas qu'à l'intérieur des puces que la mémoire flash a encore beaucoup de courbes technologiques à parcourir

M. Donnelly, d'ATTO, a donné une réponse plus globale à la question de savoir si la technologie flash est à la fin de sa courbe technologique. Se référant au développement du réseau et des protocoles d'accès au stockage qui connectent les lecteurs flash et les systèmes de stockage aux serveurs, M. Donnelly a déclaré à ATTO : "Pas du tout. Nous commençons à peine à voir comment la mémoire flash peut être utilisée dans les centres de données. La valeur des protocoles de communication NVMe commence tout juste à être reconnue dans les centres de données, et il faudra au moins une décennie pour qu'ils remplacent l'infrastructure massive basée sur SCSI. En outre, l'évolution de l'interface PCIe et les technologies émergentes telles que CXL offriront de nouvelles possibilités pour la mise en œuvre du stockage flash. En outre, les protocoles de transport tels que NVM-oF, typiquement via RDMA Ethernet, commencent tout juste à s'imposer comme une alternative viable. Ainsi, plutôt que d'atteindre un sommet, je pense que nous commençons à voir les premiers pas d'une révolution de la technologie flash".

Quand verrons-nous la prochaine nouvelle mémoire discrète à semi-conducteurs ? 

La mémoire flash a transformé le stockage des données d'entreprise et a été l'un des principaux moteurs de la révolution de l'informatique mobile. Elle est aujourd'hui une technologie majeure. Indépendamment de la fabrication de produits alimentés par la mémoire flash, tels que les disques de stockage ou les systèmes de stockage complets, la fabrication de puces flash NAND génère à elle seule un chiffre d'affaires annuel d'environ 80 milliards de dollars, et ce chiffre ne cesse de croître.

Cela soulève une question évidente : quand la prochaine nouvelle technologie de stockage de données à l'état solide émergera-t-elle avec le même impact sur le marché de masse ? Des milliards de dollars ont été dépensés dans les laboratoires de recherche au cours des dernières décennies pour tenter de trouver une autre technologie de ce type. La mémoire Optane, développée conjointement par Intel et Micron, est le fruit de ces recherches et a été livrée pour la première fois dans des disques durs à semi-conducteurs en 2017. Plus rapide mais plus chère que la mémoire flash, la mémoire Optane a été présentée comme la première d'une classe à venir de mémoires dites de stockage (SCM) qui compléteraient ou remplaceraient la mémoire flash et auraient un impact global tout aussi important sur les technologies de l'information.  Cependant, l'Optane s'est mal vendu et, en 2021, Intel a annoncé son intention d'arrêter la fabrication de la mémoire, quatre ans seulement après sa première livraison.

Entre-temps, la recherche sur d'autres MCS potentielles se poursuit. Pour Objective Analysis, qui se concentre principalement sur les mémoires émergentes, M. Handy a déclaré qu'au cours de cette décennie et de la suivante, il n'y aura probablement pas de nouvelles technologies de mémoire susceptibles d'avoir le même impact que la mémoire flash.  Il a fait une distinction entre deux types de mémoire : celles qui sont intégrées dans des processeurs ou d'autres puces, et celles qui, comme la mémoire flash NAND et l'Optane, sont ou ont été vendues en tant que puces discrètes de mémoire seule, en quantités beaucoup plus importantes et qui ont donc un potentiel de marché beaucoup plus grand.

"Optane a échoué en raison de son coût. Nous l'avons prévenu dès son annonce. Mais d'autres technologies sont susceptibles de prospérer sur certains marchés, notamment en tant que mémoire intégrée dans les microcontrôleurs, les ASIC et d'autres SoC [systèmes sur puce]. Il est toutefois très peu probable que les puces à mémoire discrète se convertissent en masse à une SCM émergente dans les années 2020, et probablement pas dans les années 2030."

Coby Hanoch, PDG et fondateur de Weebit Nano, un développeur de mémoires à semi-conducteurs de nouvelle génération, partage l'avis de Handy selon lequel Optane - également connu sous le nom de 3D XPoint - a échoué pour des raisons économiques, mais affirme que la création d'une alternative à la mémoire flash est inévitable : 

"Plusieurs technologies NVM, dont ReRAM, MRAM, PCM et FRAM, apparaissent comme des alternatives potentielles à la mémoire flash. La technologie 3D XPoint d'Intel était une première tentative pour résoudre ce problème, mais elle n'a pas abouti, principalement pour des raisons économiques. La clé du succès d'une alternative à la mémoire flash réside dans le développement d'une mémoire capable de s'adapter à des densités suffisamment importantes, mais à un prix suffisamment bas. Intel n'a pu relever ce défi que sur le plan de la densité. Ce n'est qu'une question de temps avant de voir apparaître une technologie capable de répondre aux deux critères, et nous pensons que la ReRAM sera une réponse puisqu'elle présente des avantages techniques fondamentaux, notamment en termes de vitesse, d'efficacité énergétique et de coût. Des travaux de développement sont en cours pour permettre à cette technologie d'atteindre des densités toujours plus élevées", a déclaré M. Hanoch pour Weebit Nano.

David Norfolk, responsable des pratiques en matière de développement et de gouvernement au sein du cabinet d'analyse Bloor Research, résume la difficulté de prévoir un calendrier pour l'arrivée de la prochaine nouvelle mémoire de masse : "Il peut se passer beaucoup de choses en dix ans - il est facile de dire ce qui va arriver (par exemple, la mémoire atomique étudiée par IBM), mais il est beaucoup plus difficile de dire quand".

L'élan technologique et la variante SLC de la mémoire flash seront des obstacles pour toute nouvelle mémoire.

Pour Omdia, M. Hahn partage l'avis de M. Handy selon lequel l'incapacité à atteindre des ventes suffisantes pour justifier les volumes de production nécessaires pour permettre des prix bas viables est à l'origine de l'annulation d'Optane. M. Illsley a ajouté que les variantes à haute vitesse relativement nouvelles de la mémoire flash SLC [single-level cell] effectuent des tâches pour lesquelles Optane a été conçu : "Il est facile de visualiser la place de la mémoire de classe stockage dans une pyramide stockage-mémoire, mais il a été difficile de fournir la bonne combinaison de performances, de latence et de coûts tout en assurant la persistance des données dans le monde réel. La mémoire SCM Optane semblait être un bon effort, mais sa production est en train d'être interrompue en raison de l'absence d'une économie de volume appropriée. Il y a clairement quelques bons cas d'utilisation pour Optane SCM mais, honnêtement, ces cas sont traités avec la technologie SLC NAND flash récemment mise sur le marché. Les offres de SSD SLC NAND sont de plus en plus nombreuses en raison de leur durabilité exceptionnelle et de leurs bonnes performances en écriture, en particulier pour l'étagement des données à chaud et la mise en cache des données.

La flash SLC s'appuie sur la technologie existante de la flash NAND, et le commentaire de M. Hahn sur sa valeur fait écho à une déclaration de Boyan Krosnov, directeur technique et cofondateur de StorPool, un fournisseur de systèmes de stockage distribués définis par logiciel : "Toute nouvelle technologie doit surmonter la technologie existante, qui bénéficie de décennies d'optimisation et de fabrication à grande échelle. La nouvelle technologie sera donc fortement désavantagée".

M. Anderson a ajouté qu'il ne s'attendait pas non plus à ce qu'un SCM émerge dans les dix prochaines années et a souligné un autre obstacle qu'Optane devait franchir. "Les SCM sont très prometteurs, mais le changement d'architecture logicielle nécessaire pour que les applications bénéficient de tous les avantages offerts par les SCM est trop important, et les applications ne les ont donc jamais adoptés.  La mémoire flash n'a pas été confrontée à cet obstacle, car sa combinaison spécifique de coûts et de performances n'a jamais exigé ou justifié son utilisation en complément de la mémoire DRAM.  Pour étayer son argument sur la réticence de l'industrie informatique à modifier les logiciels, M. Anderson fait référence aux NVDIMM, qui sont des dispositifs combinant la mémoire DRAM et la mémoire flash pour offrir les performances de la DRAM avec la persistance (la capacité de conserver les données en toute sécurité après une coupure de courant) de la mémoire flash : "Intel et AMD ont maintenant tous deux complètement abandonné les NVDIMM vanille, sans parler de l'Optane, plus exotique.