Croissance des données ? Misez sur l’automatisation de la mise en cache, la hiérarchisation et le tuning du stockage

Optimiser le rapport prix/performances ainsi que l'accès aux hot datas, garantir la réactivité du système de données et limiter la dégradation des performances en cas de défaillance matérielle sont des missions essentielles pour les gestionnaires du stockage de toute entreprise.

La mise en cache, la hiérarchisation et le réglage sont trois fonctions de gestion du stockage interconnectées - et autant de pistes - qu'ils se doivent de considérer pour y parvenir.
La croissance de l’entreprise s’accompagne d’un inévitable challenge : comment gérer l’augmentation de la demande en données. Le besoin d’améliorer la réactivité des applications et du système d’information s’affirme au fur et à mesure que l’entreprise se développe.
 Et cette croissance augmente l’appétit des applications critiques en données. Les techniques de mise en cache, de hiérarchisation et de tuning du stockage permettent d’étendre et d’améliorer les fonctionnalités des équipements de stockage SAS, NearLine-SAS et SSD. Les administrateurs peuvent ainsi optimiser les performances du système en combinant intelligemment plusieurs types d’équipements de stockage autonomes et en exploitant leurs fonctions de gestion du stockage. Chacune des fonctions mentionnées - mise en cache, hiérarchisation et réglage du stockage - a un rôle unique à jouer. Si leur combinaison est puissante, elles sont également très intéressantes à titre individuel. C’est pourquoi, les entreprises doivent s’appuyer sur ces technologies pour optimiser le ratio entre les coûts et les performances d’une part, et améliorer la disponibilité des données tout en les protégeant au fur et à mesure de leur croissance d’autre part.

Mettre en cache pour améliorer la performance

La mise en cache permet aux contrôleurs d’utiliser la technologie SSD ou Flash pour étendre son cache intégré, également appelé cache L2 (de second niveau). Les requêtes au niveau des E/S sont généralement traitées à partir du cache de premier niveau (L1). Mais si le débit des requêtes est trop important, celui-ci peut saturer. La mise en cache permet d’améliorer le débit d’E/S en augmentant le taux de d’utilisation du cache. Le système de stockage identifie les données les plus sollicitées, parfois appelées « hot data », à l’aide d’algorithmes MFU (Most Frequently Used) et MRU (Most Recently Used). En surveillant l’évolution des tendances au niveau des E/S sur la durée, les systèmes de stockage peuvent ainsi automatiquement aligner les ressources sur les exigences du workflow.
Si les données les plus sollicitées ne constituent qu’une petite partie (3 à 5 %) de la volumétrie totale, elles peuvent représenter jusqu’à 50 à 60 % de l’activité au niveau des E/S. Une intensité qui rend le cache L2 si précieux, car il peut traiter une grande partie des opérations d’E/S, réduisant ainsi de façon considérable le temps nécessaire pour accéder aux données par rapport aux disques durs traditionnels. Si le système de stockage détermine que l’utilisation du cache étendu permettrait d’optimiser les performances en E/S, il migre les données vers le cache L2 sans qu’un administrateur ait besoin d’intervenir. En surveillant continuellement les tendances d’E/S, le système de stockage actualise sa compréhension de la demande à niveau là.
L’utilisation des fonctions de mise en cache avancées présente des avantages considérables, particulièrement pour les environnements dynamiques comme les serveurs virtualisés et pour les applications nécessitant une faible latence, car les tendances en E/S peuvent changer significativement au cours d’une même journée de travail. Selon les applications, les performances en E/S peuvent être améliorées jusqu’à 800 % grâce à la mise en cache.

La mise en cache n’est pas pourtant pas facile

Une mise en cache efficace nécessite de prendre en compte plusieurs facteurs. Par exemple, le niveau des opérations d’entrée/sortie par seconde (IOPS) : pour fonctionner efficacement, une fonction de mise en cache doit mesurer automatiquement toutes les transactions ainsi que le niveau d’IOPS par transaction de données. Toute entreprise connait l’importance de maintenir ses performances en matière de satisfaction client. Dans ce monde « connecté en permanence », il est capital de fournir un service fiable et de respecter les niveaux de service attendus. Le défi réside dans la capacité à pouvoir maintenir des niveaux de performances élevés, même dans des situations d’engorgement ou de défaillance matérielle.
Et justement, la mise en cache automatique peut contribuer au maintien de bonnes performances en cas de défaillance matérielle. Un système de stockage de niveau professionnel compte généralement deux contrôleurs en mode actif/actif. Si l’un se révèle défaillant, l’autre prend le relais. Le contrôleur restant doit gérer deux fois plus de trafic jusqu’au remplacement du matériel défaillant. En l’absence d’une forme quelconque de mise en cache automatique, les utilisateurs constateront à coup sur une dégradation des performances. Prévoir un cache secondaire L2 permet d’amoindrir la dégradation des performances et de maintenir jusqu’à 80 % des performances en E/S.

Fonctionnement de la mise en cache

Dès qu’une transaction en lecture est demandée dans l’application hôte, elle va d’abord essayer de récupérer les données à partir du cache principal de la mémoire du contrôleur (cache L1). Si les données demandées sont disponibles, la requête est gérée à partir du cache L1. Sinon, le contrôleur vérifie la table de correspondance du cache secondaire L2 pour voir si les données demandées ont déjà été montées dans le cache L2 situé sur le SSD ou la mémoire flash. Si tel est le cas, le contrôleur gère la requête de lecture directement à partir du stockage sur disque. Les données restent ensuite dans le cache pour le cas où d’autres demandes de lecture seraient initiées.

La hiérarchisation pour l’efficacité

Il est essentiel que les données soient correctement provisionnées pour garantir les meilleures performances tout en réduisant autant que possible leur coût. Le stockage hiérarchisé permet d’optimiser la répartition des actifs des données, ce qui nécessite de prendre en compte simultanément l’efficacité, les performances en E/S, la protection des données et le temps de fonctionnement.
Les systèmes de stockage avancés commercialisés à l’heure actuelle prennent en charge l’utilisation simultanée des SSD, du NearLine SAS et du SAS haute performance. Ils peuvent automatiquement provisionner le stockage et garantir que ce provisionnement respecte les politiques de l’entreprise. La hiérarchisation du stockage vient en complément de la mise en cache. Contrairement à cette dernière, elle utilise la mémoire SSD en tant que stockage permanent. La mise en cache est utilisée pour rediriger de façon dynamique les requêtes en lecture et en écriture.
Le schéma suivant montre comment un pool de stockage peut être configuré avec plusieurs types de stockage ou avec un seul type d’équipements de stockage. Sur ce schéma, le niveau 0 est synonyme de SSD, le niveau 1 de disques durs SAS et le niveau 2 de disques durs NL-SAS :

La possibilité de hiérarchiser automatiquement, de façon autonome, les données permet aux systèmes d’entreprise d’analyser le trafic en temps réel et de déplacer automatiquement le stockage en fonction d’une politique de seuils de performance, sans aucune interruption du système. Elles sont ensuite réaffectées aux équipements appropriés dans une optique d’optimisation des performances d’accès aux données et de maintien de l’efficacité de l’ensemble du système de stockage.

Le tuning pour une optimisation totale

L’ajout d’une fonction de tuning à cette combinaison vient compléter le tableau. Aucun administrateur ne veut régler son système de stockage à la main s’il peut l’éviter. C’est pourtant souvent le cas dans un environnement d’entreprise en pleine croissance, où les demandes sur le système augmentent rapidement. L’automatisation rend le réglage des systèmes de stockage de base presque infaillible.
Un logiciel de gestion de stockage sophistiqué garantit que les équipements d’une entreprise bénéficient de l’IOPS dont ils ont besoin tout en maintenant les performances du système, même en cas de défaillance matérielle. Un tuning automatique permet aux êtres humains de se consacrer à des challenges supérieurs comme la conception du système et l’évaluation des exigences futures.
Le tuning automatique du stockage repose sur l’analyse dynamique des performances, qui surveille les tendances en E/S et détecte les engorgements.
Il contribue à identifier les zones problématiques en donnant aux administrateurs la capacité d’optimiser automatiquement les ressources grâce aux différents types de stockage, chacun présentant des caractéristiques différentes de disponibilité et de performances. Ce réglage permet au système de stockage de résoudre les problèmes d’engorgement tout en maintenant les opérations en ligne, en améliorant les performances d’accès et en aidant à optimiser les emplacements des données.

Conclusion

L’optimisation du rapport prix/performances, la garantie de la réactivité du système de données, l’optimisation de l’accès aux données les plus sollicitées et la réduction de la dégradation des performances en cas de défaillance matérielle sont des missions essentielles pour les gestionnaires du stockage de toute entreprise. La mise en cache, la hiérarchisation et le réglage sont trois fonctions de gestion du stockage interconnectées que les administrateurs peuvent utiliser pour obtenir les meilleurs résultats pour les opérations de leur entreprise.
La hiérarchisation permet une utilisation plus efficace des ressources de stockage, tandis que la mise en cache élimine les engorgements d’E/S et permet ainsi d’améliorer les performances. Leur combinaison, associée à l’automatisation des réglages, permet de surveiller l’utilisation des données et optimise les niveaux de stockage sans intervention manuelle. Les demandes des applications en matière d’accès aux bases de données, aux serveurs virtualisés et aux infrastructures de bureaux virtuels continuent à stimuler le besoin en matière d’architecture de stockage dynamique et adaptable.