Actualizando almacenamiento en homelab – LenovoEMC PX6-300D

Que tal gente, el día de hoy les quiero compartir los resultados a nivel de almacenamiento que tuve al actualizar mi infraestructura de networking y almacenamiento. Para mi laboratorio tengo un rendimiento bastante satisfactorio, se agregaron 2 nuevos componentes, Switch de capa 3 Cisco SG200-26 y nuevos discos para mi antiguo y siempre confiable PX6-300D.

En el switch se activó jumbo frames (MTU 9000) para la comunicación de iSCSI por lo que el payload de cada paquete es mucho mayor, pudiendo asi optimizar la transmisión de información.

LenovoEMC LifeLine 4.0

Con la actualización de mi almacenamiento a la última versión de su sistema operativo (LifeLine) se agregaron capacidades bastante interesantes, en este caso estaremos enfocándonos al cache de SSD, es importante notar que no se trata de soporte o capacidad de conectar discos duros de SSD al almacenamiento y utilizarlos como espacio para presentarlo a los clientes.

Screen Shot 2013-08-20 at 12.35.20 PM

SSD caching básicamente nos permite crear pooles de discos de estado solido para acelerar las escrituras y lecturas a los volúmenes que estamos presentando, en este caso estaría realizando cache de toda la información que es accedida de manera intensa en los discos de estado solido para que sean servidos desde esta capa con un acceso mucho mas rápido que el de los discos duros tradicionales.Screen Shot 2013-08-20 at 1.05.09 PM Como podemos ver en la imagen tengo creado un pool de SSD caching con 100GB (disco de 120GB) de espacio, este es utilizado para almacenar todos aquellos archivos/info que son accedidos con mayor frecuencia. Como pueden ver tengo un Arreglo con nivel de RAID5 constituido por 5 discos SATA 3 con cache de 64MB, el problema esta en que este arreglo solo soporta operación a SATA2, debido al RAID5 me quedo con una cantidad de 7.2 TB utilizables.

Números, impacto de SSD caching

En el momento que me enteré que la nueva versión de LifeLine ofrecía SSD caching quize comparar el rendimiento que estaba presentando mi almacenamiento y el que presentaría con los nuevos discos, un RAID5 y SSD caching.

  • Layout de almacenamiento previa a la actualización:
  • 6 Discos SATA2 (16MB de cache) 250GB c/u, RAID0.
  • Layout de almacenamiento post actualización:
  • 5 Discos SATA3 (64MB de cache) 2TB c/u,RAID5, SSD Kingston Hyperx SATA3 120GB (SSD cache)

 

Para poder determinar el rendimiento que presentaba mi almacenamiento y el que presentaría después de actualizarlo decidí utilizar el fling de VMware llamado I/O Analyzer, aplicando dos distintos perfiles de iometer (claramente no son perfiles de cargas reales de trabajo) Max_IOPS y Max_Write_Throughput. Recordemos que previamente tenia RAID0 por lo que no se tenia ninguna penalidad de RAID y después de la actualización se tiene un RAID5 con penalidad de 4 IOPs por cada escritura.

  • Rendimiento Previo, 17044 IOPS máximo y una velocidad de escritura máxima de 111MBPS:

Screen Shot 2013-08-20 at 1.39.18 PMMax IOPS

Screen Shot 2013-08-20 at 1.39.04 PMMax write throughput

  • Rendimiento Actual 19573 IOPS máximo y una velocidad de escritura máxima de 112 MBPS:

Screen Shot 2013-08-20 at 1.42.31 PMScreen Shot 2013-08-20 at 1.47.33 PM

Como podemos notar aún considerando la penalidad del RAID5 (para mas información de RAID hacer click aquí) y teniendo un disco duro menos al agregar el pool de SSD para cache pude mejorar el rendimiento de mi almacenamiento “modesto” para mi laboratorio casero, creo que casí 20k de IOPS es algo bastante bueno para correr mis VMs y demos.

Lo que sigue es poder agregar un segundo puerto para mi comunicación de iSCSI y determinar que mejora en rendimiento podría representar agregar un LACP entre mi PX6300D y mis ESXi.

 

Leave a Reply