vSphere 5.5 – ¿Que hay de nuevo? – Parte 1

Que tal gente el día de hoy les voy a hablar sobre lo nuevo que se agrego a vSphere 5.5, estaremos revisando de manera “profunda” todas las nuevas capacidades. Recordemos que en VMworld 2013 San Francisco Pat Gelsinger anunció la nueva versión de la plataforma entre otras noticias (vSAN (aunque este pertenece a vSphere), NSX, vCHS, etc.).

Computo – Host ESXi

La capacidad que podemos tener en un solo host ESXi tanto lógica como física aumento bastante en este release estos son los máximos que manejamos en esta versión:

  • 4TB de Memoria RAM por Host ESXi – ¿Mayor densidad?, claramente el tener la posibilidad de alcanzar este nivel de recursos no quiere decir que es algo recomendable, todo dependerá del caso de uso y el ambiente (ej. cargas no criticas vs cargas críticas, overcommitment vs recursos dedicados, etc.) Se tiene soporte experimental para 16TB de RAM. Es interesante saber que se tiene soporte para memoría de tipo “reliable” donde se tiene una copia o “mirror” de una sección de la memoría, ESXi identificará este espacio de memoría designado como “reliable” (claramente configurado previamente por el usuario/admin a nivel del host físico) y podrá colocar ciertos procesos como watchdog podemos verificar la cantidad de memoria “reliable” en uso con el comando:

esxcli hardware memory get

  • 320 CPUs físicos por Host y 4096 vCPUs (CPUs de VM) – nuevamente, una cantidad impresionante, numeros difícilmente utilizados o empleados en el campo.
  • C-States – se integra el manejo de CState además de los PStates de procesador para poder optimizar energía en distintos tiempos, los P-states básicamente son aquellos niveles de rendimiento (operacionales, frecuencia y voltaje) que ofrece el procesador mientras que el C-State permite desactivar ciertas capacidades propias del procesador para ahorrar energía extra entrando en distintos estados “idle”, todo esto ESXi lo realiza a través del ACPI.

Pstatescstates

Storage – Host ESXi

Una sección que recibió BASTANTES nuevas funcionalidades y mejoras a lo ya existente vamos a revisar que nos trae vSphere 5.5 del lado de storage:

  • vSAN  vSAN nos permite tener almacenamiento centralizado a partir de discos locales, lo interesante en esto es que se emplea SSD para poder realizar cache de lecturas y buffering de escrituras (write back cache) lo que nos permite tener almacenamiento verdaderamente escalable y con un excelente rendimiento, para saber mas sobre vSAN les recomiendo leer mi articulo vSAN Deepdive.  Es importante notar que no tiene nada que ver con VSA o la vSphere Storage Appliance, aunque ambas nos permiten entregar almacenamiento local de manera centralizada estan enfocadas para distintos segmentos y casos de uso, para esto les recomiendo leer el articulo de Rawlinson Rivera donde nos presenta una tabla comparativa entre ambas soluciones, leelo aquí.
    vsanhabiliar
  • vFlash Otra interesante funcionalidad que se agrega a vSphere 5.5 que nos permite dar read cache a las VMs, es importante saber que esto no ofrece aceleración de escrituras o writeback cache. Se habilita de manera granular por VMDK como lo podemos ver en la imagen. La aceleración es provista por SSDs locales en el host ESXi, estaré hablando mas a fondo sobre vFlash en un articulo futuro, tocando temas de mejores prácticas, arquitectura, etc.

virtualflashhabilitar

  • Microsoft Clustering Services se agrega soporte para el path selection policy (PSP) de Round Robin cuando utilizamos MSCS con Windows 2008 y 2012 (que emplean reservaciones SCSI3) el disco de quorum tiene que ser entregado como passthrough RDM. De igual manera se agrega soporte para iSCSI en las 3 distintas arquitecturas de MSCS soportadas (Cluster in a box, Cluster across boxes y N+1) ya sea con software iSCSI o hardware iSCSI.
  • VMDKs de 2TB+ Se cuenta con soporte de VMDKs de hasta 64TB (utilizables 63.36TB por metadata y demás), aunque debemos tener algunas consideraciones: Al utilizar NFS se tendrá la limitante del sistema de archivos que provee dicho punto de montaje, es decir, el tamaño de archivo máximo que maneja (ej. ext3 llega a 16TB), VMFS3 continua con la límitante de 2TB , No se puede extender un volumen en “vivo” u online de 2TB a un espacio mayor, esto tiene que ser con la VM apagada, No se soporta FT, VSAN no soporta VMDKs de 2TB+ y El adaptador Buslogic no es compatible. Se logro este incremento a través de 2 capas de direccionamiento indirecto de bloques. En el caso de tener snapshots para este tipo de discos de mas de 2TB+ los snaps serán creados automáticamente en formato sesparse (funcionalidad que solo esta presente para Horizon View en los linked clones).
  • Mejor manejo para PDL Se agregó un mecanismo que de manera automática remueve todos aquellos dispositivos de storage que se encuentren marcados con PDL o “Permanent Device Loss” que básicamente es la perdida de acceso al dispositivo (LUN) lo que evita futuras operaciones de I/O a nivel de dicho dispositivo y también nos permite liberar un dispositivo del máximo de 255 que se maneja.
  • Heap de VMFS  nos permite abrir hasta 64TB concurrentes por Host ESXi, cosa que en versiones anteriores era un problema, muchas veces necesitábamos modificar el heap de vmfs para poder tener acceso a mas archivos abiertos.
  • Soporte para EndtoEnd 16Gb FC   anteriormente se soportaba HBAs de 16Gb pero trabajando a 8Gb, ahora toda la fabric puede estar a 16Gb.
  • Soporte para Hot-plug de PCIe SSDs –  se soporta el agregar discos SSD en caliente (con el servidor operando) mientras que estos esten conectados a una controladora PCIe, esto extiende el soporte de hot-plug de discos donde se soportaba SAS y SATA.

Networking- Host ESXi

Del lado de networking se agregaron algunas funcionalidades interesantes, revisemos que tenemos nuevo en vSphere 5.5:

  • Traffic filtering & marking – se nos permite agregar ACLs a nivel de portgroup (se implementa y configura en cada portgroup), esto básicamente nos da la opción de permitir o tirar paquetes en base a distintos “calificadores”:opcionesacls
    De igual manera nos permite marcar con DSCP para brindar QoS en los paquetes y al igual que los ACLs nos permite definir los mismos calificadores, un caso de uso en para esta funcionalidad sería VoIP:

cosdscpqualifiers

  • pktcap-uw – esta herramienta que forma parte del hipervisor es similar a lo que vendría siendo TCPdump, nos permite recolectar paquetes para su analisis, realizar un trace y demás esta bastante interesante y nos brinda visibilidad y capacidad de poder realizar troubleshooting de a nivel de redes incluso permitiéndonos extraer los paquetes en formato .pcap para su analísis en Wireshark, aquí les muestro un ejemplo de captura de 1 paquete de iSCSI entre mi host ESXi y mi almacenamiento PX6 de LenovoEMC:

capturapktcap

  • Soporte para NICs de 40Gb – se agrega soporte para el manejo de tarjetas ethernet a 40Gbps esto permite tener una escalabilidad en términos de rendimiento bastante alta, en ambientes donde el crecimiento del host esta topado por cuestiones de bahias de expansión PCIe (ej. blades) hace mucho sentido (claramente debemos de contar con infraestructura de red capaz de manejarlo.
  • Mejoras en SR-IOV – desde la versión 5.1 de vSphere soportamos SRIOV o Single Root I/O Virtualization, que básicamente nos permite segmentar un mismo dispositivo físico que este conectado a través de PCIe en distintos dispositivos virtuales que son conocidos como “VFs” o Virtual Functions que son despúes presentados directamente a las VMs permitiendo así hacer un bypass de todo el stack de networking del vmkernel (hipervisor) reduciendo latencia y mejorando el throughput, en esta versión se agrega una funcionalidad de poder presentar las propiedades del Portgroup al cual esta conectado dicha VF ej. presentar modo promiscuo, vlans, etc.
  • Mejoras para LACP – Se cuentan con mejoras en LACP, desde la versión 5.1 se soportaba LACP. Con este release se agregan mas algoritmos de negociación, se soportan 64LACPs por ESXi y 64 por vDS, cosa que antes era 1 LACP por vDS y 1 por Host ESXi, estaré escribiendo un articulo puntual sobre esto.

Hardware virtual (VMs)

Con vSphere 5.5 también se liberó una nueva versión de hardware virtual o “VM compatibility”, versión 10:

vmhw10

¿Que beneficios nos brinda esta nueva compatibilidad de VM?

  • Hasta 128 vCPUs por VM
  • 2TB de Memoria RAM por VM
  • 64TB en un solo VMDK (utilizables son 63.36TB) y vRDMS de ~64TB (buslogic no soporta estos tamaños).
  • 4 adaptadores vSCSI y 30 discos por controladora lo cual nos da un total de 120 discos por VM
  • Adaptador SATA (AHCI), en este caso solo se soporta un máximo de 30 discos y cuatro controladoras
  • Soporte para GPUs de Nvidia y AMD
  • Aceleración de gráficos para Linux.

Como pueden ver se agregan capacidades interesantes a nivel de VM, en este caso desde mi punto de vista veo una que resalta entre las demás, soporte para VMDKs de 2TB+, existen muchos casos de uso donde se justifica tener discos de mayor tamaño y el configurar RDMs para estas VMs resulta un incremento el la administración tanto del storage como de VMware, aquí lo importante que debemos recordar es el hecho de que aunque podamos agregar discos de dicho tamaño debemos de tomar en cuenta temas como DR, BC, backups y demás, tomando como ejemplo que tengamos un datastore de 64TB donde coloquemos 5 VMs con VMDKs de 10TB imaginemos el tiempo que nos toma el respaldar esta info, el restaurar este LUN, replicación, etc y siempre apegandonos a los RPOs y RTOs definidos (¿comienza a complicarse cierto?) claramente existen muchos casos de uso donde será la opción utilizar VMDKs de gran tamaño pero debemos de comparar todos los “trade-offs” entre las distintas opciones para poder justificar nuestra decisión.

Esten atentos para el siguiente articulo donde estaré hablando de las mejoras en vSphere replication y vCenter Server.

6 comments on “vSphere 5.5 – ¿Que hay de nuevo? – Parte 1

  1. Jose R. Saenz September 4, 2013 4:16 pm

    Excelente articulo, muy descriptivo y claro en los conceptos. Solo me queda una duda. Seria capaz de crecer un datastore sin agregar nuevos nodos? es decir agregando discos a bahías disponibles en los “nodos” físicos existentes?

    • amalanco September 4, 2013 5:37 pm

      muchas gracias, si solo sería cuestión de agregar dichos discos al disk group

  2. amalanco September 4, 2013 9:24 pm

    supongo que te referias a vSAN?

  3. Jose R. Saenz September 5, 2013 10:09 am

    Asi es, puesto que solo se puede tener 1 solo datastore, puede llegar a ser necesario incrementar el espacio y ya se estan utilizando los 8 nodos maximos, por lo que la otra opcion es añadir discos adicionales.
    Y en este caso. Existiria un Downtime? o se puede hacer en “caliente”?

    • Jose R. Saenz September 5, 2013 10:13 am

      Me di cuenta justo en este momento que realice mi comentario en el articulo incorrecto, ya que estaba examinando ambos (este y el de “vSAN Deepdive”), pero aclarando, si me refería a vSAN.

      • amalanco September 5, 2013 3:38 pm

        Si te referias a vSAN, si , solo agregando discos al disk group puedes crecer el datastore sin problemas.

Leave a Reply