banner
Centre d'Information
Prix ​​d'usine compétitif et grande qualité

Examen de l'EMC VNX5200

May 23, 2023

Le contrôleur de stockage VNX5200 d'EMC est le point d'entrée des offres VNX2 de la société et propose un stockage par blocs avec des fonctionnalités de stockage de fichiers et unifié en option. Le VNX5200 peut gérer jusqu'à 125 disques durs et SSD SAS et NL-SAS de 2,5 pouces ou 3,5 pouces et est construit avec l'architecture multicœur MCx d'EMC. Kevin O'Brien, directeur du laboratoire de test d'entreprise StorageReview, s'est récemment rendu au centre de données d'EMC à Hopkinton, dans le Massachusetts, pour une expérience pratique et des tests de performances du VNX5200.

Le contrôleur de stockage VNX5200 d'EMC est le point d'entrée des offres VNX2 de la société et propose un stockage par blocs avec des fonctionnalités de stockage de fichiers et unifié en option. Le VNX5200 peut gérer jusqu'à 125 disques durs et SSD SAS et NL-SAS de 2,5 pouces ou 3,5 pouces et est construit avec l'architecture multicœur MCx d'EMC. Kevin O'Brien, directeur du laboratoire de test d'entreprise StorageReview, s'est récemment rendu au centre de données d'EMC à Hopkinton, dans le Massachusetts, pour une expérience pratique et des tests de performances du VNX5200.

En septembre de l'année dernière, EMC a mis à jour sa célèbre gamme VNX de baies de stockage unifié avec des améliorations matérielles importantes. Le résultat a été la gamme VNX2, avec des améliorations telles que le passage de PCIe 2.0 à PCIe 3.0 et la nouvelle architecture MCx (englobant RAID multicœur, cache multicœur et FAST Cache multicœur) pour mieux tirer parti de plusieurs cœurs de processeur dans les processeurs de stockage.

Bon nombre de ces améliorations visent à permettre à la plate-forme VNX de mieux utiliser le flash à un moment où les administrateurs de stockage continuent d'évoluer vers des configurations de baies hybrides. Selon EMC, près de 70 % des systèmes VNX2 sont désormais livrés dans des configurations flash hybrides, une évolution qui a également accordé plus d'importance au rôle de la suite FAST d'EMC pour la mise en cache et la hiérarchisation.

Alors que le plus petit VNXe3200 que nous avons examiné précédemment a également été mis à jour avec les technologies VNX2, le VNX5200 est conçu pour les clients du marché intermédiaire qui ont besoin d'un système de stockage principal à leur siège social et pour les besoins des bureaux distants/succursales qui sont plus robustes que ce que le VNXe3200 peut gérer. Le VNX5200 peut être configuré pour le stockage de blocs, de fichiers ou unifié et utilise un châssis EMC Disk Processor Enclosure (DPE) 3U, 25x 2,5 pouces. Les unités de processeur de stockage du VNX5200 intègrent un processeur Xeon E5 à quatre cœurs de 1,2 GHz avec 16 Go de RAM et peuvent gérer un maximum de 125 disques avec une connectivité FC, iSCSI, FCoE et NAS.

La famille VNX2 comprend également actuellement cinq systèmes de stockage conçus pour des échelles plus importantes que le VNXe3200 et le VNX5200.

Le stockage par blocs VNX5200 est alimenté par deux processeurs de stockage VNX avec une topologie de disque SAS de 6 Go. Un déploiement VNX2 peut utiliser un ou plusieurs Data Movers et une unité de contrôleur pour offrir des services NAS. Comme les autres membres de la série VNX, le VNX5200 utilise des modules d'E/S UltraFlex pour ses Data Movers et les processeurs de stockage en mode bloc. Le VNX5200 prend en charge jusqu'à trois Data Movers et un maximum de trois modules UltraFlex par Data Mover.

Fonctionnalité multicœur MCx

VNX est antérieur à la technologie de processeur multicœur répandue, et les générations précédentes de la plate-forme n'ont pas été construites sur une base qui pourrait tirer parti de la mise à l'échelle dynamique du processeur. FLARE, l'environnement d'exploitation VNX1 et CLARiiON CX, permettait à des services tels que RAID d'être exécutés sur un cœur de processeur spécifique, mais le paradigme à thread unique de FLARE signifiait que de nombreuses fonctions principales étaient liées au premier cœur de processeur. Par exemple, tous les processus d'E/S entrants étaient gérés par le Core 0 avant d'être délégués à d'autres cœurs, ce qui entraînait des scénarios de goulot d'étranglement.

MCx implémente ce qu'EMC caractérise comme une mise à l'échelle horizontale du système multicœur, qui permet à tous les services d'être répartis sur tous les cœurs. Avec cette nouvelle architecture disponible à la fois sur VNX2 et sur VNXe3200, les processus d'E/S entrants sont moins susceptibles de connaître des goulots d'étranglement car, par exemple, les ports Fibre Channel frontaux peuvent être répartis uniformément entre plusieurs cœurs de processeur. MCx implémente également l'affinité de cœur d'E/S grâce à son concept de cœurs préférés. Chaque port, frontal et principal, possède à la fois un cœur préféré et un cœur alternatif. Le système héberge les requêtes avec le même cœur frontal d'où proviennent les requêtes afin d'éviter d'échanger le cache et le contexte entre les cœurs.

Un avantage majeur de la nouvelle architecture MCx est la prise en charge des LUN actifs/actifs symétriques, qui permettent aux hôtes d'accéder simultanément aux LUN via les deux processeurs de stockage de la baie. Contrairement à l'implémentation asymétrique de FLARE, le mode actif/actif symétrique permet aux deux SP d'écrire directement sur le LUN sans avoir besoin d'envoyer des mises à jour au processeur de stockage principal.

À l'heure actuelle, les systèmes VNX2 prennent en charge l'accès actif/actif symétrique pour les LUN de groupe RAID classique, mais ne prennent pas en charge l'accès actif/actif pour les LUN de pool privé qui peuvent utiliser le mode actif/actif asymétrique. Les LUN de pool privé ou « LUN classiques » ne peuvent actuellement pas utiliser le mode actif/actif symétrique s'ils utilisent des services de données autres que le séparateur VNX RecoverPoint.

L'une des synergies convaincantes du VNX5200 entre l'architecture MCx et le stockage de supports flash est la prise en charge par le système de la suite EMC FAST, qui permet aux administrateurs de tirer parti des supports de stockage flash pour augmenter les performances de la baie sur des disques hétérogènes. La suite FAST combine deux approches d'utilisation du flash pour accélérer les performances de stockage - la mise en cache et la hiérarchisation - dans une solution intégrée. Les mises à jour VNX2 de FAST Suite incluent une granularité de hiérarchisation quatre fois supérieure et la prise en charge des nouveaux lecteurs flash eMLC.

VNX FAST Cache permet d'utiliser jusqu'à 4,2 To de stockage SSD afin de servir des données hautement actives et de s'adapter dynamiquement aux pics de charge de travail, bien que la limite supérieure de taille de cache du VNX5200 soit de 600 Go. À mesure que les données vieillissent et deviennent moins actives au fil du temps, FAST VP hiérarchise les données des disques hautes performances aux disques haute capacité par incréments de 256 Mo en fonction de politiques définies par l'administrateur.

Spécifications EMC VNX5200

Concevoir et construire

Dans la terminologie VNX, un déploiement de stockage se compose de plusieurs composants de rack intégrés. Le composant du contrôleur est soit un boîtier de processeur de stockage (SPE) qui n'intègre pas de baies de lecteur, soit, comme avec ce VNX5200, un boîtier de processeur de disque (DPE) qui fournit un stockage interne. Les boîtiers de baies de disques VNX (DAE) peuvent être utilisés pour intégrer une capacité de stockage supplémentaire.

Un SPE intègre les processeurs de stockage VNX en plus de modules SAS doubles, de blocs d'alimentation doubles et de packs de ventilateurs. Les boîtiers de processeur de disque (DPE) comprennent un boîtier, des modules de disque, des processeurs de stockage, des blocs d'alimentation doubles et quatre packs de ventilateurs. L'ajout de stockage supplémentaire via l'utilisation de boîtiers DAE peut être effectué via l'utilisation de baies de lecteur 15 x 3,5 pouces, 25 x 2,5 pouces ou 60 x 3,5 pouces avec deux cartes de contrôle de liaison SAS et deux blocs d'alimentation.

Qu'ils fassent partie d'un boîtier de processeur de stockage ou d'un boîtier de processeur de disque, les processeurs de stockage VNX fournissent un accès aux données aux hôtes externes et relient le stockage en bloc de la baie avec la fonctionnalité de stockage de fichiers VNX2 en option. Le VNX5200 peut tirer parti d'une variété de modules d'E/S UltraFlex d'EMC pour personnaliser sa connectivité.

Options de module d'E/S UltraFlex Block :

Afin de configurer le VNX5200 pour le stockage de fichiers ou le stockage unifié, il doit être utilisé en tandem avec une ou plusieurs unités Data Mover. Le boîtier du Data Mover VNX (DME) a ​​une taille de 2U et abrite les Data Movers. Les Data Movers utilisent des processeurs Xeon 5600 à quatre cœurs de 2,13 GHz avec 6 Go de RAM par Data Mover et peuvent gérer une capacité de stockage maximale de 256 To par Data Mover. Le boîtier du dispositif de transfert de données peut fonctionner avec un, deux ou trois dispositifs de transfert de données.

Les stations de contrôle ont une taille 1U et fournissent des fonctions de gestion aux Data Movers, y compris des commandes de basculement. Une station de contrôle peut être déployée avec une station de contrôle secondaire pour la redondance. Les options du module d'E/S de fichiers UltraFlex incluent :

Services de gestion et de données

La gamme VNX utilise le logiciel de gestion Unisphere d'EMC. Notre impression générale d'Unisphere est qu'il offre une interface propre et bien organisée qui sera accessible aux généralistes de l'informatique tout en permettant aux administrateurs de stockage expérimentés d'accéder à toutes les fonctionnalités du système.

Unisphere intègre une fonctionnalité d'instantané qui inclut des options de configuration pour une politique de suppression automatique qui supprime les instantanés soit (1) après un laps de temps spécifié, soit (2) une fois que l'espace de stockage des instantanés dépasse un pourcentage spécifié de la capacité de stockage. Les snapshots VNX peuvent utiliser les technologies de provisionnement fin et de redirection en écriture d'EMC pour améliorer la vitesse et réduire les besoins en stockage des snapshots stockés.

VNX utilise des algorithmes de compression de blocs et de fichiers conçus pour des LUN et des fichiers relativement inactifs, ce qui permet d'effectuer ses opérations de compression et de déduplication en arrière-plan avec une surcharge de performances réduite. La déduplication à bloc fixe de VNX est conçue avec une granularité de 8 Ko pour des scénarios tels que les machines virtuelles, les bureaux virtuels et les environnements de test/développement avec beaucoup à gagner de la déduplication. La déduplication peut être définie au niveau du LUN du pool, et les LUN légers, épais et dédupliqués peuvent être stockés dans un seul pool.

Unisphere Central fournit une surveillance multi-box centralisée pour jusqu'à des milliers de systèmes VNX et VNXe, par exemple des systèmes déployés dans des bureaux distants et des succursales. La suite Unisphere comprend également le logiciel VNX Monitoring and Reporting pour l'utilisation du stockage et les modèles de charge de travail afin de faciliter le diagnostic des problèmes, l'analyse des tendances et la planification des capacités.

Dans les environnements virtualisés, le VNX5200 peut déployer l'intégrateur de stockage virtuel d'EMC pour VMware vSphere 5 pour le provisionnement, la gestion, le clonage et la déduplication. Pour VMware, le VNX5200 offre des intégrations d'API pour VAAI et VASA, et dans les environnements Hyper-V, il peut être configuré pour le transfert de données déchargées et la copie de déchargement pour fichier. EMC Storage Integrator offre des fonctionnalités de provisionnement pour Hyper-V et SharePoint. Le logiciel EMC Site Recovery Manager peut également gérer le basculement et la restauration automatique dans les situations de reprise après sinistre.

Les baies VNX2 du VNX5200 au VNX8000 offrent le nouveau chiffrement des données au repos basé sur contrôleur d'EMC, nommé [email protected], qui chiffre toutes les données utilisateur au niveau du disque. [email protected] utilise le cryptage AES 256 et est en attente de validation pour la conformité FIPS-140-2 Niveau 1. Les nouvelles baies VNX [email protected] sont livrées avec le matériel de chiffrement inclus, et les systèmes VNX2 existants peuvent être mis à niveau sur le terrain pour prendre en charge [email protected] et chiffrer sans interruption le stockage existant en tâche de fond.

[email protected] crypte toutes les données écrites sur la baie à l'aide d'un protocole de chemin de données standard avec une clé unique par disque. Si des disques sont retirés de la matrice pour une raison quelconque, les informations sur le disque sont incompréhensibles. [email protected] intègre également une fonctionnalité de crypto-effacement car ses clés de chiffrement sont supprimées lorsqu'un groupe RAID ou un pool de stockage est supprimé.

VNX2 offre une fonctionnalité de cache d'écriture en miroir, où chaque processeur de stockage contient à la fois des données mises en cache principales pour ses LUN et une copie secondaire du cache pour le processeur de stockage homologue. Les niveaux RAID 0, 1, 1/0, 5 et 6 peuvent coexister dans la même matrice et la fonction proactive de remplacement à chaud du système augmente encore la protection des données. Le système utilise des unités de batterie de secours intégrées pour assurer la désactivation du cache et d'autres considérations pour un arrêt ordonné pendant les pannes de courant.

La protection locale est disponible via la fonction d'instantané ponctuel d'Unisphere, et la protection continue des données est disponible via la réplication locale RecoverPoint. Le VPLEX d'EMC peut être utilisé pour étendre la disponibilité continue au sein et entre les centres de données. Selon EMC, il a utilisé les DVR de télévision comme source d'inspiration pour son logiciel RecoverPoint Continuous Remote Replication.

Replication Manager et AppSync offrent une protection cohérente avec les applications avec les solutions EMC de sauvegarde et de restauration, notamment Data Domain, Avamar et Networker, afin de raccourcir les fenêtres de sauvegarde et les temps de restauration.

Test de l'arrière-plan et des supports de stockage

Nous publions un inventaire de notre environnement de laboratoire, un aperçu des capacités de mise en réseau du laboratoire et d'autres détails sur nos protocoles de test afin que les administrateurs et les responsables de l'acquisition des équipements puissent évaluer équitablement les conditions dans lesquelles nous avons obtenu les résultats publiés. Afin de maintenir notre indépendance, aucune de nos évaluations n'est payée ou gérée par le fabricant de l'équipement que nous testons.

La revue EMC VNX5200 se distingue comme une approche de test plutôt unique par rapport à la façon dont nous évaluons habituellement les équipements. Dans notre processus d'examen standard, le fournisseur nous envoie la plate-forme, que nous connectons ensuite à nos plates-formes de test fixes pour des tests de performances. Avec le VNX5200, la taille et la complexité, ainsi que la configuration initiale, nous ont amenés à changer cette approche et à envoyer notre examinateur et notre équipement au laboratoire d'EMC. EMC a préparé un VNX5200 avec l'équipement et les options nécessaires pour les tests iSCSI et FC. EMC a fourni son propre commutateur FC 8 Go dédié, tandis que nous avons apporté l'un de nos commutateurs Mellanox 10/40 Go SX1024 pour la connectivité Ethernet. Pour stresser le système, nous avons utilisé un serveur EchoStreams OSS1A-1U, dépassant les spécifications matérielles de ce que nous utilisons dans notre environnement de laboratoire traditionnel.

Spécifications EchoStreams OSS1A-1U :

Notre évaluation du VNX5200 comparera ses performances dans des benchmarks synthétiques sur cinq configurations qui reflètent la manière dont les clients EMC déploient les systèmes VNX2 dans un environnement de production. Chaque configuration utilisait 8 LUN d'une taille de 25 Go.

Chaque configuration incorporait 24 disques et utilisait les configurations RAID les plus courantes avec leur déploiement dans un environnement de production.

Analyse synthétique de la charge de travail d'entreprise

Avant de lancer chacun des benchmarks synthétiques fio, notre laboratoire préconditionne l'appareil dans un état stable sous une lourde charge de 16 threads avec une file d'attente exceptionnelle de 16 par thread. Ensuite, le stockage est testé à des intervalles définis avec plusieurs profils de profondeur de thread/file d'attente pour afficher les performances en cas d'utilisation légère et intensive.

Tests de préconditionnement et d'état stable primaire :

Cette analyse synthétique intègre quatre profils largement utilisés dans les cahiers des charges et benchmarks des constructeurs :

Après avoir été préconditionné pour des charges de travail 4k, nous avons soumis le VNX5200 à nos tests primaires. Ainsi, lorsqu'il est configuré avec des SSD et accessible via Fibre Channel, il affiche 80 472 IOPS en lecture et 33 527 IOPS en écriture. En utilisant les mêmes SSD en RAID10 (mais cette fois en utilisant notre test au niveau du bloc iSCSI), le VNX5200 a atteint 37 421 IOPS en lecture et 22 309 IOPS en écriture. Le passage à des disques durs 15K en RAID5 à l'aide de la connectivité Fibre Channel a montré 12 054 IOPS en lecture et 3 148 IOPS en écriture, tandis que la configuration du disque dur 10K a atteint 7 688 IOPS en lecture et 2 835 IOPS en écriture. Lors de l'utilisation de disques durs 7K dans une configuration RAID6 du même type de connectivité, le VNX5200 a affiché 4 390 IOPS en lecture et 1 068 IOPS en écriture.

Les résultats étaient sensiblement les mêmes en termes de latence moyenne. Lorsqu'il est configuré avec des SSD en RAID10 et en utilisant une connectivité Fibre Channel, il affiche 3,18 ms en lecture et 7,63 ms en écriture. Utilisant les mêmes SSD avec notre test au niveau du bloc iSCSI, le VNX5200 affichait 6,84 ms en lecture et 11,47 ms en écriture. Le passage aux disques durs 15K en RAID5 utilisant la connectivité Fibre Channel a montré une latence moyenne de 21,23 ms en lecture et 81,31 ms en écriture, tandis que la configuration du disque dur 10K affichait 33,29 ms en lecture et 90,31 ms en écriture. Lors du passage à des disques durs 7K dans une configuration RAID6 du même type de connectivité, le VNX5200 a affiché 58,29 ms en lecture et 239,64 ms en écriture.

Ensuite, nous passons à notre référence de latence maximale. Lorsqu'il est configuré avec des SSD en RAID10 et en utilisant notre test au niveau du bloc iSCSI, il a montré 197 ms en lecture et 421,8 ms en écriture. Utilisant les mêmes SSD, mais cette fois avec une connectivité Fibre Channel, le VNX5200 affichait 202,1 ms en lecture et 429,2 ms en écriture. Le passage aux disques durs 15K en RAID5 à l'aide de la connectivité Fibre Channel a enregistré 1 311,3 ms en lecture et 1 199,2 ms en écriture pour une latence maximale, tandis que la configuration du disque dur 10K affichait 2 687,8 ms en lecture et 2 228,1 ms en écriture. Lors du passage à des disques durs 7K dans une configuration RAID6 du même type de connectivité, le VNX5200 a affiché 3 444,8 ms en lecture et 2 588,4 ms en écriture.

Notre dernière référence 4K est l'écart type, qui mesure la cohérence des performances du VNX5200. Lorsqu'il est configuré avec des SSD en RAID10 à l'aide de notre test au niveau du bloc iSCSI, le VNX5200 affiche 3,30 ms en lecture et 12,06 ms en écriture. L'utilisation des mêmes SSD avec la connectivité Fibre Channel affiche 9,20 ms en lecture et 14,32 ms en écriture. Le passage aux disques durs 15K en RAID5 avec connectivité Fibre Channel a enregistré 25,93 ms en lecture et 120,53 ms en écriture, tandis que la configuration du disque dur 10K affichait 35,37 ms en lecture et 175,66 ms en écriture. Lors de l'utilisation d'une configuration RAID6 de disques durs 7K du même type de connectivité, le VNX5200 affiche 52,75 ms en lecture et 254,55 ms en écriture.

Notre prochain benchmark utilise une charge de travail séquentielle composée d'opérations de lecture à 100 %, puis d'opérations d'écriture à 100 % avec une taille de transfert de 8 k. Ici, le VNX5200 a affiché 178 959 IOPS en lecture et 76 022 IOPS en écriture lorsqu'il est configuré avec des disques durs 10K dans la connectivité Fibre Channel RAID5. L'utilisation de disques durs 15K en RAID5 avec la connectivité Fibre Channel affiche 176 895 IOPS en lecture et 77 505 IOPS en écriture. Le passage aux SSD en RAID10 à l'aide d'une connectivité Fibre Channel a enregistré 169 833 IOPS en lecture et 74 470 IOPS en écriture, tandis que le test au niveau du bloc SSD iSCSI a montré 69 303 IOPS en lecture et 40 379 IOPS en écriture. Lors de l'utilisation de disques durs 7K dans une configuration RAID6 avec connectivité Fibre Channel, le VNX5200 a affiché 75 982 IOPS en lecture et 76 122 IOPS en écriture.

Notre prochaine série de charges de travail est composée d'un mélange d'opérations de lecture 8k (70%) et d'écriture (30%) jusqu'à une file d'attente 16 Threads 16, notre première étant le débit. Lorsqu'il est configuré avec des SSD en RAID10 utilisant la connectivité Fibre Channel, le VNX5200 affiche une plage de 8 673 IOPS à 41 866 IOPS en 16T/16Q. L'utilisation des mêmes SSD lors de notre test au niveau du bloc iSCSI montre une plage de 6 631 IOPS à 28 193 IOPS. Le passage aux disques durs 15K en RAID5 avec connectivité Fibre Channel a enregistré une plage de 1 204 IOPS et 6 411 IOPS, tandis que la configuration du disque dur 10K affichait 826 IOPS et 5 113 IOPS en 16T/16Q. Lors de l'utilisation d'une configuration RAID6 de disques durs 7K du même type de connectivité, le VNX5200 a affiché une plage de 267 IOPS à 2 467 IOPS.

Ensuite, nous avons examiné la latence moyenne. Lorsqu'il est configuré avec des SSD en RAID10 utilisant la connectivité Fibre Channel, le VNX5200 affiche une plage de 0,45 ms à 6,11 ms en 16T/16Q. L'utilisation des mêmes SSD lors de notre test au niveau du bloc iSCSI montre une plage de 0,59 ms à 9,07 ms. Le passage aux disques durs 15K en RAID5 avec connectivité Fibre Channel a enregistré une plage de 3,31 ms et 39,89 ms, tandis que la configuration du disque dur 10K affichait initialement 4,83 ms et 49,97 ms en 16T/16Q. Lors de l'utilisation d'une configuration RAID6 de disques durs 7K du même type de connectivité, le VNX5200 a affiché une plage de 14,93 ms à 103,52 ms.

En examinant ses résultats de latence maximale, lorsqu'il est configuré avec des SSD en RAID10 utilisant la connectivité Fibre Channel, le VNX5200 avait une plage de 27,85 ms à 174,43 ms en 16T/16Q. L'utilisation des mêmes SSD lors de notre test au niveau du bloc iSCSI montre une plage de 31,78 ms à 134,48 ms de latence maximale. Le passage aux disques durs 15K en RAID5 avec connectivité Fibre Channel a enregistré une plage de 108,48 ms et 2 303,72 ms, tandis que la configuration du disque dur 10K affichait 58,83 ms et 2 355,53 ms en 16T/16Q. Lors de l'utilisation d'une configuration RAID6 de disques durs 7K du même type de connectivité, le VNX5200 a affiché une plage de latence maximale de 82,74 ms à 1 338,61 ms.

Notre prochaine charge de travail analyse l'écart type pour nos opérations de lecture 8k 70% et écriture 30%. Utilisant des SSD en RAID10 utilisant la connectivité Fibre Channel, le VNX5200 a affiché une plage de seulement 0,18 ms à 10,83 ms en 16T/16Q. L'utilisation des mêmes SSD lors de notre test au niveau du bloc iSCSI montre une plage similaire de 0,21 ms à 11,54 ms de cohérence de latence. Le passage aux disques durs 15K en RAID5 avec connectivité Fibre Channel a enregistré une plage de 3,48 ms à 56,58 ms, tandis que la configuration du disque dur 10K affichait initialement 2,5 ms et 66,44 ms en 16T/16Q. Lors de l'utilisation d'une configuration RAID6 de disques durs 7K du même type de connectivité, le VNX5200 a affiché une plage d'écart type de 7,98 ms à 110,68 ms.

Notre benchmark synthétique final a utilisé des transferts séquentiels de 128k et une charge de travail de 100% d'opérations de lecture et 100% d'écriture. Dans ce scénario, le VNX5200 affiche 2,84 Go/s en lecture et 1,26 Go/s en écriture lorsqu'il est configuré avec des SSD à l'aide de notre test au niveau du bloc iSCSI. L'utilisation de disques durs 15K en RAID5 avec la connectivité Fibre Channel affiche 2,48 Go/s en lecture et 2,33 Go/s en écriture. En revenant aux SSD en RAID10 (cette fois en utilisant une connectivité Fibre Channel), il a enregistré 2,48 Go/s en lecture et 3,06 Go/s en écriture. Lors de l'utilisation de disques durs 7K dans une configuration RAID6 avec connectivité Fibre Channel, le VNX5200 affichait 2,47 Go/s en lecture et 2,68 Go/s en écriture, tandis que la configuration 10K HDD affichait 2,47 Go/s en lecture et 3,22 Go/s en écriture.

Conclusion

L'écosystème VNX d'EMC est bien établi sur le marché du stockage d'entreprise, mais VNX2 reflète la volonté de l'entreprise de revoir complètement l'architecture VNX afin de tirer le meilleur parti des avancées des technologies de processeur, de flash et de mise en réseau. Tout comme le VNXe3200, qui est orienté vers des déploiements plus petits, le VNX5200 démontre également qu'EMC prête attention aux entreprises de taille moyenne et aux succursales/succursales distantes qui ne sont peut-être pas en mesure de justifier les dépenses des systèmes plus grands de la famille VNX, mais veulent tout de même tout des bénéfices de l'entreprise.

Utilisé conjointement avec FAST Suite, le VNX5200 est capable d'offrir la mise en cache flash et la hiérarchisation en tandem, une combinaison contre laquelle les pairs d'EMC ont du mal à rivaliser. Lors de nos tests, nous avons identifié les niveaux et les configurations de stockage communs pour illustrer avec une suite de tests limitée ce que les utilisateurs peuvent attendre du 5200. Les tests ont couvert des disques durs 7K sur des disques SSD, illustrant la flexibilité du système, offrant capacité, performances, ou les deux sur une variété d'options d'interface.

En fin de compte, la plate-forme VNX2 peut gérer à peu près tout ce qui lui est proposé ; et c'est cette flexibilité qui permet à EMC de remporter des contrats au quotidien. Compte tenu de la combinaison d'options de stockage, de modules IO et de prise en charge NAS, les systèmes sont capables de gérer presque tout ce dont une organisation pourrait avoir besoin. Bien sûr, il existe des cas d'utilisation qui vont au-delà des 5200 que nous avons testés ici. La famille VNX s'agrandit considérablement (et diminue également avec le VNXe3200) pour répondre à ces besoins, que ce soit avec plus de puissance de calcul, d'allocation flash ou d'étagères de disques.

Avantages

Les inconvénients

Conclusion

L'EMC VNX5200 est une entrée clé dans leur nouvelle vague de baies de stockage unifiées conçues pour tirer parti du stockage flash, des processeurs multicœurs et des environnements de réseau de centres de données modernes. Son prix abordable, sa flexibilité de configuration et son accès au logiciel de gestion VNX2 et aux intégrations tierces en font un package global formidable pour le marché intermédiaire.

Page produit EMC VNX5200

Discutez de cet avis

Fonctionnalité multicœur MCx Spécifications EMC VNX5200 Conception et construction Gestion et tests des services de données Arrière-plan et supports de stockage Analyse synthétique de la charge de travail d'entreprise Conclusion Avantages Inconvénients Conclusion