banner
Centro de Noticias
Precio de fábrica competitivo y gran calidad.

Revisión de EMC VNX5200

May 23, 2023

El controlador de almacenamiento VNX5200 de EMC es el punto de entrada para las ofertas de VNX2 de la empresa y cuenta con almacenamiento en bloque con funcionalidad opcional de archivo y almacenamiento unificado. El VNX5200 puede administrar hasta 125 unidades de disco duro y SSD SAS y NL-SAS de 2,5 o 3,5 pulgadas y está diseñado con la arquitectura multinúcleo MCx de EMC. Kevin O'Brien, director del laboratorio de pruebas de StorageReview Enterprise, viajó recientemente al centro de datos de EMC en Hopkinton, MA para participar en prácticas y pruebas comparativas del VNX5200.

El controlador de almacenamiento VNX5200 de EMC es el punto de entrada para las ofertas de VNX2 de la empresa y cuenta con almacenamiento en bloque con funcionalidad opcional de archivo y almacenamiento unificado. El VNX5200 puede administrar hasta 125 unidades de disco duro y SSD SAS y NL-SAS de 2,5 o 3,5 pulgadas y está diseñado con la arquitectura multinúcleo MCx de EMC. Kevin O'Brien, director del laboratorio de pruebas de StorageReview Enterprise, viajó recientemente al centro de datos de EMC en Hopkinton, MA para participar en prácticas y pruebas comparativas del VNX5200.

En septiembre del año pasado, EMC actualizó su popular línea VNX de arreglos de almacenamiento unificado con importantes mejoras de hardware. El resultado fue la línea VNX2, con mejoras como un cambio de PCIe 2.0 a PCIe 3.0 y la nueva arquitectura MCx (que abarca RAID multinúcleo, caché multinúcleo y FAST Cache multinúcleo) para aprovechar mejor los múltiples núcleos de CPU en los procesadores de almacenamiento.

Muchas de estas mejoras se enfocan en permitir que la plataforma VNX haga un mejor uso de flash en un momento en que los administradores de almacenamiento continúan avanzando hacia configuraciones de arreglos híbridos. Según EMC, casi el 70 % de los sistemas VNX2 ahora se envían en configuraciones flash híbridas, un cambio que también le ha dado más importancia al rol de la suite FAST de EMC para almacenamiento en caché y organización en niveles.

Si bien el VNXe3200 más pequeño que analizamos anteriormente también se actualizó con tecnologías VNX2, el VNX5200 está diseñado para clientes del mercado medio que necesitan un sistema de almacenamiento principal en su sede y para necesidades de sucursales/remotas que son más sólidas que las que puede manejar el VNXe3200. El VNX5200 se puede configurar para almacenamiento de bloques, archivos o unificado y utiliza un chasis de gabinete de procesador de disco (DPE) EMC de 3U y 25 x 2,5 pulgadas. Las unidades de procesador de almacenamiento del VNX5200 incorporan un procesador Xeon E5 de cuatro núcleos y 1,2 GHz con 16 GB de RAM y pueden administrar un máximo de 125 unidades con conectividad FC, iSCSI, FCoE y NAS.

La familia VNX2 también incluye actualmente cinco sistemas de almacenamiento diseñados para escalas más grandes que VNXe3200 y VNX5200.

El almacenamiento en bloque VNX5200 funciona con dos procesadores de almacenamiento VNX con una topología de disco SAS de 6 Gb. Una implementación de VNX2 puede usar uno o más Data Movers y una unidad de controlador para ofrecer servicios NAS. Al igual que otros miembros de la serie VNX, el VNX5200 utiliza módulos de E/S UltraFlex para sus Data Movers y los procesadores de almacenamiento en bloque. El VNX5200 admite hasta tres Data Movers y un máximo de tres módulos UltraFlex por Data Mover.

Funcionalidad multinúcleo MCx

VNX es anterior a la tecnología de procesador multinúcleo generalizada y las generaciones anteriores de la plataforma no se crearon sobre una base que pudiera aprovechar el escalado dinámico de CPU. FLARE, el entorno operativo VNX1 y CLARiiON CX, permitía que los servicios, incluido RAID, se ejecutaran en un núcleo de CPU específico, pero el paradigma de subproceso único de FLARE significaba que muchas funciones principales estaban vinculadas al primer núcleo de CPU. Por ejemplo, todos los procesos de E/S entrantes fueron manejados por Core 0 antes de ser delegados a otros núcleos, lo que generó escenarios de cuello de botella.

MCx implementa lo que EMC caracteriza como escalamiento horizontal del sistema multinúcleo, que permite distribuir todos los servicios en todos los núcleos. Con esta nueva arquitectura disponible tanto en VNX2 como en VNXe3200, es menos probable que los procesos de I/O entrantes sufran cuellos de botella porque, por ejemplo, los puertos Fibre Channel de front-end se pueden distribuir uniformemente entre varios núcleos de procesador. MCx también implementa la afinidad de núcleos de E/S a través de su concepto de núcleos preferidos. Cada puerto, front-end y back-end, tiene un núcleo preferido y una asignación de núcleo alternativo. Los servicios del sistema alojan solicitudes con el mismo núcleo front-end donde se originaron las solicitudes para evitar el intercambio de caché y contexto entre núcleos.

Una gran ventaja de la nueva arquitectura MCx es la compatibilidad con LUN activos/activos simétricos, lo que permite que los hosts accedan a los LUN simultáneamente a través de ambos procesadores de almacenamiento en el arreglo. A diferencia de la implementación asimétrica de FLARE, el modo activo/activo simétrico permite que ambos SP escriban directamente en el LUN sin necesidad de enviar actualizaciones al procesador de almacenamiento principal.

En la actualidad, los sistemas VNX2 admiten el acceso activo/activo simétrico para LUN de grupo RAID clásico, pero no admiten activo/activo para LUN de pool privado que, en cambio, pueden utilizar el modo activo/activo asimétrico. Los LUN de pool privado o "LUN clásicos" actualmente no pueden usar el modo activo/activo simétrico si usan servicios de datos que no sean el divisor de VNX RecoverPoint.

Una de las sinergias convincentes de VNX5200 entre la arquitectura MCx y el almacenamiento de medios flash es la compatibilidad del sistema con EMC FAST Suite, que permite a los administradores aprovechar los medios de almacenamiento flash para aumentar el rendimiento del arreglo en unidades heterogéneas. FAST Suite combina dos enfoques para usar flash para acelerar el rendimiento del almacenamiento (caché y organización en niveles) en una solución integrada. Las actualizaciones de VNX2 para FAST Suite incluyen una granularidad de organización en niveles cuatro veces mejor y soporte para nuevas unidades flash eMLC.

VNX FAST Cache permite utilizar hasta 4,2 TB de almacenamiento SSD para servir datos altamente activos y ajustarse dinámicamente a los picos de carga de trabajo, aunque el límite de tamaño de caché superior del VNX5200 es de 600 GB. A medida que los datos envejecen y se vuelven menos activos con el tiempo, FAST VP clasifica los datos de unidades de alto rendimiento a unidades de alta capacidad en incrementos de 256 MB según las políticas definidas por el administrador.

Especificaciones de EMC VNX5200

Diseño y construcción

En la terminología de VNX, una implementación de almacenamiento consta de varios componentes de rack integrados. El componente del controlador es un gabinete de procesador de almacenamiento (SPE) que no incorpora bahías para unidades o, como en este VNX5200, un gabinete de procesador de disco (DPE) que proporciona almacenamiento interno. Los gabinetes de arreglos de discos (DAE) de VNX se pueden usar para incorporar capacidad de almacenamiento adicional.

Un SPE incorpora los procesadores de almacenamiento VNX además de módulos SAS dobles, fuentes de alimentación dobles y paquetes de ventiladores. Los gabinetes de procesadores de disco (DPE) incluyen un gabinete, módulos de disco, procesadores de almacenamiento, fuentes de alimentación dobles y cuatro paquetes de ventiladores. Se puede agregar almacenamiento adicional mediante el uso de DAE mediante el uso de bahías para unidades de 15x 3,5 pulgadas, 25x 2,5 pulgadas o 60x 3,5 pulgadas con tarjetas de control de enlace SAS duales y fuentes de alimentación duales.

Ya sea que formen parte de un gabinete de procesador de almacenamiento o un gabinete de procesador de disco, los procesadores de almacenamiento VNX brindan acceso a datos a hosts externos y unen el almacenamiento en bloque del arreglo con la funcionalidad de almacenamiento de archivos VNX2 opcional. El VNX5200 puede aprovechar una variedad de módulos de E/S UltraFlex de EMC para personalizar su conectividad.

Opciones del módulo de E/S de bloque UltraFlex:

Para configurar el VNX5200 para almacenamiento de archivos o almacenamiento unificado, debe usarse en conjunto con una o más unidades de transferencia de datos. El gabinete del organizador de datos (DME) de VNX tiene un tamaño de 2U y alberga los organizadores de transferencia de datos. Los Data Mover utilizan procesadores Xeon 5600 de cuatro núcleos a 2,13 GHz con 6 GB de RAM por Data Mover y pueden administrar una capacidad de almacenamiento máxima de 256 TB por Data Mover. El gabinete del transportador de datos puede funcionar con uno, dos o tres transportadores de datos.

Las estaciones de control tienen un tamaño de 1U y brindan funciones de administración a los transportadores de datos, incluidos los controles para la conmutación por error. Una estación de control se puede implementar con una estación de control secundaria para redundancia. Las opciones del módulo UltraFlex File IO incluyen:

Servicios de Gestión y Datos

La familia VNX utiliza el software de administración Unisphere de EMC. Nuestra impresión general de Unisphere es que ofrece una interfaz limpia y bien organizada a la que podrán acceder los generalistas de TI y, al mismo tiempo, permite que los administradores de almacenamiento experimentados accedan a la funcionalidad completa del sistema.

Unisphere incorpora la funcionalidad de instantáneas que incluye opciones de configuración para una política de eliminación automática que elimina instantáneas (1) después de un período de tiempo específico o (2) una vez que el espacio de almacenamiento de instantáneas supera un porcentaje específico de capacidad de almacenamiento. Los snapshots de VNX pueden hacer uso de las tecnologías thin provisioning y redirect on write de EMC para mejorar la velocidad y reducir los requisitos de almacenamiento para los snapshots almacenados.

VNX utiliza algoritmos de compresión de archivos y bloques diseñados para LUN y archivos relativamente inactivos, lo que permite que las operaciones de compresión y deduplicación se realicen en segundo plano con una sobrecarga de rendimiento reducida. La deduplicación de bloques fijos de VNX está construida con granularidad de 8 KB para escenarios como máquinas virtuales, escritorios virtuales y entornos de prueba/desarrollo con mucho que ganar con la deduplicación. La deduplicación se puede configurar en el nivel de LUN del grupo, y los LUN delgados, gruesos y deduplicados se pueden almacenar en un solo grupo.

Unisphere Central proporciona monitoreo centralizado de cajas múltiples para hasta miles de sistemas VNX y VNXe, por ejemplo, sistemas implementados en sucursales y oficinas remotas. El paquete Unisphere también incluye el software VNX Monitoring and Reporting para la utilización del almacenamiento y los patrones de carga de trabajo a fin de facilitar el diagnóstico de problemas, el análisis de tendencias y la planificación de la capacidad.

En entornos virtualizados, el VNX5200 puede implementar Virtual Storage Integrator de EMC para VMware vSphere 5 para aprovisionamiento, administración, clonación y deduplicación. Para VMware, el VNX5200 ofrece integraciones de API para VAAI y VASA, y en entornos Hyper-V se puede configurar para Transferencia de datos descargados y Copia descargada para archivos. EMC Storage Integrator ofrece funcionalidad de aprovisionamiento para Hyper-V y SharePoint. El software EMC Site Recovery Manager también puede administrar failover y failback en situaciones de recuperación ante desastres.

Los arreglos VNX2 desde VNX5200 hasta VNX8000 ofrecen el nuevo cifrado de datos en reposo basado en controlador de EMC, denominado [email protected], que cifra todos los datos de usuario a nivel de disco. [email protected] usa encriptación AES 256 y está pendiente de validación para el cumplimiento de FIPS-140-2 Nivel 1. Los nuevos arreglos VNX [protegidos por correo electrónico] se envían con el hardware de cifrado incluido, y los sistemas VNX2 existentes se pueden actualizar en el campo para admitir [protegido por correo electrónico] y cifrar sin interrupciones el almacenamiento existente como una tarea en segundo plano.

[email protected] cifra todos los datos escritos en el arreglo mediante un protocolo de ruta de datos regular con una clave única por disco. Si se extraen unidades de la matriz por cualquier motivo, la información de la unidad será ininteligible. [email protected] también incorpora la función de borrado criptográfico porque sus claves de cifrado se eliminan cuando se elimina un grupo RAID o un conjunto de almacenamiento.

VNX2 ofrece una funcionalidad de caché de escritura duplicada, en la que cada procesador de almacenamiento contiene datos primarios en caché para sus LUN y una copia secundaria de la caché para el procesador de almacenamiento del mismo nivel. Los niveles de RAID 0, 1, 1/0, 5 y 6 pueden coexistir en el mismo arreglo y la función proactiva de repuesto en caliente del sistema aumenta aún más la protección de datos. El sistema utiliza unidades de respaldo de batería integradas para proporcionar la eliminación de caché y otras consideraciones para un apagado ordenado durante fallas de energía.

La protección local está disponible a través de la función de instantáneas puntuales de Unisphere y la protección continua de datos está disponible a través de la replicación local de RecoverPoint. VPLEX de EMC se puede utilizar para ampliar la disponibilidad continua dentro y entre centros de datos. Según EMC, utilizó DVR de televisión como inspiración para su software RecoverPoint Continuous Remote Replication.

Replication Manager y AppSync brindan protección consistente con las aplicaciones con las soluciones de respaldo y recuperación de EMC, que incluyen Data Domain, Avamar y Networker, para acortar las ventanas de respaldo y los tiempos de recuperación.

Prueba de fondo y medios de almacenamiento

Publicamos un inventario de nuestro entorno de laboratorio, una descripción general de las capacidades de red del laboratorio y otros detalles sobre nuestros protocolos de prueba para que los administradores y los responsables de la adquisición de equipos puedan evaluar de manera justa las condiciones en las que hemos logrado los resultados publicados. Para mantener nuestra independencia, el fabricante del equipo que estamos probando no paga ni administra ninguna de nuestras revisiones.

La revisión de EMC VNX5200 se destaca como un enfoque de prueba único en comparación con la forma en que normalmente evaluamos los equipos. En nuestro proceso de revisión estándar, el proveedor nos envía la plataforma, que luego conectamos a nuestras plataformas de prueba fijas para obtener puntos de referencia de rendimiento. Con el VNX5200, el tamaño y la complejidad, así como la configuración inicial, nos obligaron a cambiar este enfoque y llevar a nuestro revisor y equipo al laboratorio de EMC. EMC preparó un VNX5200 con el equipo y las opciones necesarias para las pruebas de iSCSI y FC. EMC suministró su propio conmutador FC de 8 Gb dedicado, mientras que trajimos uno de nuestros conmutadores Mellanox SX1024 de 10/40 Gb para conectividad Ethernet. Para enfatizar el sistema, aprovechamos un servidor EchoStreams OSS1A-1U, superando las especificaciones de hardware de lo que usamos en nuestro entorno de laboratorio tradicional.

Especificaciones de EchoStream OSS1A-1U:

Nuestra evaluación del VNX5200 comparará su rendimiento en puntos de referencia sintéticos en cinco configuraciones que reflejan cómo los clientes de EMC implementan sistemas VNX2 en un entorno de producción. Cada configuración aprovechó 8 LUN con un tamaño de 25 GB.

Cada configuración incorporó 24 unidades y utilizó las configuraciones RAID más comunes con su implementación en un entorno de producción.

Análisis de carga de trabajo sintética empresarial

Antes de iniciar cada uno de los puntos de referencia sintéticos de fio, nuestro laboratorio preacondiciona el dispositivo en estado estable bajo una carga pesada de 16 subprocesos con una cola pendiente de 16 por subproceso. Luego, el almacenamiento se prueba en intervalos establecidos con múltiples perfiles de profundidad de subprocesos/colas para mostrar el rendimiento con un uso ligero y pesado.

Pruebas de preacondicionamiento y de estado estacionario primario:

Este análisis sintético incorpora cuatro perfiles que se utilizan ampliamente en las especificaciones y puntos de referencia de los fabricantes:

Después de ser preacondicionado para cargas de trabajo de 4k, sometimos el VNX5200 a nuestras pruebas principales. Como tal, cuando se configuró con SSD y se accedió a través de Fibre Channel, registró 80 472 IOPS de lectura y 33 527 IOPS de escritura. Con los mismos SSD en RAID10 (aunque esta vez con nuestra prueba de nivel de bloque iSCSI), el VNX5200 logró 37 421 IOPS de lectura y 22 309 IOPS de escritura. El cambio a HDD de 15 000 en RAID5 con conectividad Fibre Channel mostró 12 054 IOPS de lectura y 3148 IOPS de escritura, mientras que la configuración de HDD de 10 000 alcanzó 7688 IOPS de lectura y 2835 IOPS de escritura. Cuando se utilizan discos duros de 7K en una configuración RAID6 del mismo tipo de conectividad, el VNX5200 registró 4390 IOPS de lectura y 1068 IOPS de escritura.

Los resultados fueron muy similares en latencia promedio. Cuando se configuró con SSD en RAID10 y con conectividad Fibre Channel, mostró 3,18 ms de lectura y 7,63 ms de escritura. Usando los mismos SSD con nuestra prueba de nivel de bloque iSCSI, el VNX5200 presumió 6,84 ms de lectura y 11,47 de escritura. El cambio a HDD de 15 000 en RAID5 con conectividad Fibre Channel mostró una latencia promedio de 21,23 ms de lectura y 81,31 ms de escritura, mientras que la configuración de HDD de 10 000 registró 33,29 ms de lectura y 90,31 ms de escritura. Al cambiar a discos duros de 7K en una configuración RAID6 del mismo tipo de conectividad, el VNX5200 registró 58,29 ms de lectura y 239,64 ms de escritura.

A continuación, pasamos a nuestro punto de referencia de latencia máxima. Cuando se configuró con SSD en RAID10 y con nuestra prueba de nivel de bloque iSCSI, mostró 197 ms de lectura y 421,8 ms de escritura. Con los mismos SSD, aunque esta vez con conectividad Fibre Channel, el VNX5200 alcanzó 202,1 ms de lectura y 429,2 ms de escritura. El cambio a HDD de 15 000 en RAID5 con conectividad Fibre Channel registró 1311,3 ms de lectura y 1 199,2 ms de escritura para una latencia máxima, mientras que la configuración de HDD de 10 000 registró 2 687,8 ms de lectura y 2 228,1 ms de escritura. Al cambiar a discos duros de 7K en una configuración RAID6 del mismo tipo de conectividad, el VNX5200 registró 3444,8 ms de lectura y 2588,4 ms de escritura.

Nuestro último punto de referencia 4K es la desviación estándar, que mide la consistencia del rendimiento del VNX5200. Cuando se configuró con SSD en RAID10 mediante nuestra prueba de nivel de bloque iSCSI, el VNX5200 registró 3,30 ms de lectura y 12,06 ms de escritura. El uso de los mismos SSD con conectividad Fibre Channel muestra 9,20 ms de lectura y 14,32 ms de escritura. El cambio a HDD de 15K en RAID5 con conectividad Fibre Channel registró 25,93 ms de lectura y 120,53 ms de escritura, mientras que la configuración de HDD de 10K registró 35,37 ms de lectura y 175,66 ms de escritura. Al usar la configuración RAID6 de HDD de 7K del mismo tipo de conectividad, el VNX5200 registró 52,75 ms de lectura y 254,55 ms de escritura.

Nuestro próximo punto de referencia utiliza una carga de trabajo secuencial compuesta al 100 % por operaciones de lectura y luego al 100 % por operaciones de escritura con un tamaño de transferencia de 8k. Aquí, el VNX5200 registró 178 959 IOPS de lectura y 76 022 IOPS de escritura cuando se configuró con HDD de 10 000 en conectividad de canal de fibra RAID5. El uso de HDD de 15K en RAID5 con conectividad Fibre Channel muestra 176 895 IOPS de lectura y 77 505 IOPS de escritura. El cambio a SSD en RAID10 mediante una conectividad de canal de fibra registró 169 833 IOPS de lectura y 74 470 IOPS de escritura, mientras que la prueba de nivel de bloque SSD iSCSI mostró 69 303 IOPS de lectura y 40 379 IOPS de escritura. Al usar HDD de 7K en una configuración RAID6 con conectividad Fibre Channel, el VNX5200 registró 75 982 IOPS de lectura y 76 122 IOPS de escritura.

Nuestra próxima serie de cargas de trabajo se compone de una combinación de operaciones de lectura (70%) y escritura (30%) de 8k hasta una cola de 16 subprocesos 16, siendo la primera el rendimiento. Cuando se configuró con SSD en RAID10 mediante conectividad Fibre Channel, el VNX5200 registró un rango de 8673 IOPS a 41 866 IOPS por 16T/16Q. El uso de los mismos SSD durante nuestra prueba de nivel de bloque iSCSI muestra un rango de 6631 IOPS a 28 193 IOPS. El cambio a HDD de 15K en RAID5 con conectividad Fibre Channel registró un rango de 1204 IOPS y 6411 IOPS, mientras que la configuración de HDD de 10K registró 826 IOPS y 5113 IOPS en 16T/16Q. Cuando se usa la configuración RAID6 de HDD de 7K del mismo tipo de conectividad, el VNX5200 registró un rango de 267 IOPS a 2467 IOPS.

A continuación, analizamos la latencia promedio. Cuando se configuró con SSD en RAID10 mediante conectividad Fibre Channel, el VNX5200 registró un rango de 0,45 ms a 6,11 ms por 16T/16Q. El uso de los mismos SSD durante nuestra prueba de nivel de bloque iSCSI muestra un rango de 0,59 ms a 9,07 ms. El cambio a HDD de 15 000 en RAID5 con conectividad Fibre Channel registró un rango de 3,31 ms y 39,89 ms, mientras que la configuración de HDD de 10 000 registró 4,83 ms inicialmente y 49,97 ms en 16T/16Q. Cuando se usa la configuración RAID6 de HDD de 7K del mismo tipo de conectividad, el VNX5200 registró un rango de 14,93 ms a 103,52 ms.

Echando un vistazo a sus resultados de latencia máxima, cuando se configuró con SSD en RAID10 usando conectividad Fibre Channel, el VNX5200 tuvo un rango de 27.85ms a 174.43ms por 16T/16Q. El uso de los mismos SSD durante nuestra prueba de nivel de bloque iSCSI muestra un rango de 31,78 ms a 134,48 ms en latencia máxima. El cambio a HDD de 15K en RAID5 con conectividad Fibre Channel registró un rango de 108,48 ms y 2303,72 ms, mientras que la configuración de HDD de 10K mostró 58,83 ms y 2355,53 ms por 16T/16Q. Cuando se usa la configuración RAID6 de HDD de 7K del mismo tipo de conectividad, el VNX5200 registró un rango de latencia máxima de 82,74 ms a 1338,61 ms.

Nuestra próxima carga de trabajo analiza la desviación estándar para nuestras operaciones de lectura de 8k 70 % y escritura de 30 %. Al usar SSD en RAID10 con conectividad Fibre Channel, el VNX5200 registró un rango de solo 0,18 ms a 10,83 ms por 16T/16Q. El uso de los mismos SSD durante nuestra prueba de nivel de bloque iSCSI muestra un rango similar de 0,21 ms a 11,54 ms en la consistencia de la latencia. El cambio a HDD de 15K en RAID5 con conectividad Fibre Channel registró un rango de 3,48ms a 56,58ms, mientras que la configuración de HDD de 10K mostró 2,5ms inicialmente y 66,44ms con 16T/16Q. Al usar la configuración RAID6 de HDD de 7K del mismo tipo de conectividad, el VNX5200 registró un rango de desviación estándar de 7,98 ms a 110,68 ms.

Nuestro punto de referencia sintético final hizo uso de transferencias secuenciales de 128k y una carga de trabajo de 100 % de operaciones de lectura y 100 % de escritura. En este escenario, el VNX5200 registró 2,84 GB/s de lectura y 1,26 GB/s de escritura cuando se configuró con SSD mediante nuestra prueba de nivel de bloque iSCSI. El uso de HDD de 15K en RAID5 con conectividad Fibre Channel muestra 2,48 GB/s de lectura y 2,33 GB/s de escritura. Al volver a SSD en RAID10 (esta vez usando una conectividad Fibre Channel), registró 2,48 GB/s de lectura y 3,06 GB/s de escritura. Al usar HDD de 7K en una configuración RAID6 con conectividad Fibre Channel, el VNX5200 registró 2,47 GB/s de lectura y 2,68 GB/s de escritura, mientras que la configuración de HDD de 10K registró 2,47 GB/s de lectura y 3,22 GB/s de escritura.

Conclusión

El ecosistema VNX de EMC está bien establecido en el mercado de almacenamiento empresarial, pero VNX2 refleja la voluntad de la empresa de revisar completamente la arquitectura VNX para aprovechar al máximo los avances en las tecnologías de redes, flash y procesadores. Al igual que el VNXe3200, que está orientado hacia implementaciones más pequeñas, el VNX5200 también demuestra que EMC está prestando atención a las empresas del mercado medio y las oficinas remotas/sucursales que tal vez no puedan justificar el gasto de los sistemas más grandes de la familia VNX, pero que aún quieren todo de los beneficios de la empresa.

Usado junto con FAST Suite, el VNX5200 puede ofrecer almacenamiento en caché flash y almacenamiento en niveles en tándem, una combinación contra la cual los pares de EMC tienen problemas para competir. En nuestras pruebas, desglosamos los niveles y configuraciones comunes de almacenamiento para ilustrar con un conjunto de pruebas limitado lo que los usuarios pueden esperar del 5200. Las pruebas cubrieron 7K HDD hasta SSD, ilustrando la flexibilidad que tiene el sistema, brindando capacidad, rendimiento, o ambos a través de una variedad de opciones de interfaz.

En última instancia, la plataforma VNX2 puede manejar casi cualquier cosa que se le presente; y es esa flexibilidad la que gana tratos con EMC todos los días. Dada la combinación de opciones de almacenamiento, los módulos IO y la compatibilidad con NAS, los sistemas pueden administrar casi todo lo que una organización podría necesitar. Por supuesto, hay casos de uso que van más allá del 5200 que probamos aquí. La familia VNX se amplía bastante (y también se reduce un poco con el VNXe3200) para abordar estas necesidades, ya sea con más potencia de cómputo, asignación flash o estantes de discos.

ventajas

Contras

Línea de fondo

El EMC VNX5200 es una entrada clave en su nueva ola de arreglos de almacenamiento unificado que están diseñados para aprovechar el almacenamiento flash, las CPU multinúcleo y los entornos de red de centros de datos modernos. Su asequibilidad, flexibilidad en la configuración y acceso al software de administración VNX2 y las integraciones de terceros lo convierten en un paquete general formidable para el mercado medio.

Página del producto EMC VNX5200

Discutir esta revisión

Funcionalidad multinúcleo de MCx EMC VNX5200 Especificaciones Diseño y construcción Administración y servicios de datos Pruebas Fondo y medios de almacenamiento Análisis de carga de trabajo sintética empresarial Conclusión Pros Contras Resultado final