View

Horizon View 7 – Instant clones

rsz_vmware

Que tal gente, el día de hoy les voy a hablar sobre una nueva capacidad que nos entrega Horizon 7: “Instant Clones”. Vamos a entender de donde vienen estos “Instant Clones” cuales son sus motivaciones y las tecnologías que permiten que sean una realidad para terminar revisando como se crean pooles de Instant Clones en […]

Load Balancing & multi-sitios en VMware View

Que tal gente el día de hoy vamos a hablar sobre las consideraciones que debemos de tener al diseñar un ambiente constituido por múltiples sitios para VMware View.

Comenzemos por entender la arquitectura de Pods y Bloques recomendada para VMware View debido a su modularidad y escalabilidad:

podbloque

*El almacenamiento puede ser de cualquier vendor, 3par solo es por referencia

Un Pod esta constituido por N cantidad de bloques que satisfacen la capacidad de computo necesario para cumplir los SLAs definidos en nuestro ambiente y poder alojar a los usuarios proyectados. Todos los bloques que se requieran para poder dar servicio a la cantidad de usuarios necesarios van a estar compartiendo almacenamiento, podemos aislar los distintos bloques en distintos datastores pero por cuestiones de gestión es mejor que el mismo almacenamiento provea servicio para cada bloque que agreguemos. En cuestiones de red, estaremos utilizando vDS teniendo uno por bloque, recordemos que los vDS no se pueden expandir entre DCs virtuales o entre vCenter Servers.
Otro punto que pueden notar es el caso de las instancias de vCenter, vamos a necesitar una instancia por cada bloque, los ambientes de VMware View pueden llegar a ser bastante activos dependiendo de el diseño, ej. En el caso de requerir operaciones de refresh cada que los usuarios terminan su sesión, las VMs de vCenter estarán residiendo en el cluster de management para no consumir recursos dedicados a los escritorios. De igual manera tendremos al menos 2 View Connection Servers por bloque para poder cumplir con alta disponibilidad y poder balancear las sesiones entre ellos, aunque el máximo soportado de un connection server sea de 2000 sesiones con una configuración de 4 vCPUs y 10GB de RAM.
Por último tenemos el cluster de management donde se estarán ejecutando todas las VMs de servicio e infraestructura como vCenters de los bloques, View Connection Servers, View Transfer Servers, View Security Servers, vShield Manager (vCNS),etc.

Una vez entendidos los conceptos básicos de un diseño en “POD” debemos de conocer las limitantes que tenemos al diseñarlo:

  • Los PODs no deben de estar expandidos geográficamente, esto es debido a que pueden llegar a presentarse problemas con la replicación de ADAM (a través de JMS) entre Connection Servers y sus replicas.
  • Tenemos un máximo de 8 hosts por cluster en el caso de utilizar VMFS y 32 hosts en el caso de NFS.
  • Es importante considerar en el caso de balanceo de cargas que DNS Round-Robin no debe de ser utilizado ya que no podriamos asegurar la persistencia de la sesión y esto podría resultar en la entrega de un nuevo escritorio por otro broker.

Puede llegarse a dar el caso que se tengan otras limitantes dependiendo del diseño en cuestión, pero estas son las principales que debemos de considerar para VMware View, ya que utilizamos vSphere las consideraciones y lineamientos de diseño de la misma aplican de igual manera a dicha capa.

Vamos a revisar algunos puntos en específico:

  • Balanceo de cargas global entre sitios (Global Site Load Balancing, GSLB) – En este tipo de diseños que existen entre múltiples sitios debemos de contar con un mecanismo para balancear las cargas de las sesiones y que estas sean distribuidas geográficamente una vez que la sesión ha sido direccionada al DC en cuestión se contarán con balanceadores locales para distribuir las cargas entre View Connection Servers.
    Todos los balanceadores que participan deben de asegurar la persitencia de sesión entre sitios y view connection servers, esto es de vital importancia para eventos de desconexión.Los escritorios persistentes no pueden ser utilizados en este tipo de configuración debido a que estos existirán en un solo datacenter.

Beneficios

Contradicciones

Una única URL para conectarse al ambiente de VMware View en el caso de escritorios no persistentes.

Algunos fabricantes requieren que sus balanceadores sean autorizados (authoritative).
 Ofrece el mejor balanceo para escritorios no persistentes debido a su balanceo geográfico e interno.  No esta pensado para escritorios persistentes
 A diferencia de Round-robin no direccionará sesiones de escritorios a sitios fuera de línea.  Puede resultar algo compleja debido a el seguimiento entre sitios y sesiones.
  • Balanceo de cargas a nivel DC o sitio (Site Load Balancing) – En este caso al igual que en el balanceo global debemos de asegurarnos de la persistencia en cada una de las sesiones, en este caso si no estamos haciendo balanceo global el overhead de administración es mayor debido a que la distribución de sesiones entre sitios o DCs será manualmente asignando usuarios a cada URL (sitio/DC).

Beneficios

Contradicciones

Ideal para ambientes donde tenemos escritorios persistentes, ya que los usuarios estan “casados” con un sitio. A menos que se utilice Roud-Robin DNS o reconfiguración a través de DHCP (se necesitaría tener un release de el lease) si atravesamos una falla de el DC/sitio los clientes deberán ser configurados manualmente.
 Existen Zero-clients que soportan la reconfiguración de el mismo a través de opciones en el scope de DHCP, permitiendo redireccionarlas a un sitio alterno.  Una distribución equitativa de sesiones activas puede no balancearse de manera efectiva.

Tips de diseño – VMware View & PCoIP

Que tal gente vamos a revisar algunas consideraciones de diseño para VMware View, en este caso estaremos revisando consideraciones de red.

Lo primero que debemos de tener en cuenta es que debemos conocer el perfil de los usuarios que estarán utilizando la solución de view, es decir debemos identificar que necesidades tiene cada uno de ellos, para esto, debemos de preguntarnos lo siguiente:

– aplicaciones que se utilizan
– ¿manejo de gráficos? (Software vs hardware)
– ¿Se requiere procesar video? (MMR o host video decoding)
– ¿manejo de audio? (¿Bidireccional?)
– ¿dispositivos USB?
– ubicación
– medio de acceso

En estas preguntas o checklist no consideramos todos los temas como políticas de respaldo, manejo de persona, etc.

Con estas preguntas podemos irnos dando una idea clara de lo que el usuario estaría consumiendo en cuanto a números de red se refiere. Lo más recomendado es que tengamos una etapa de assesment del ambiente existente, es decir, poder tener almenos los días considerados como “pico” o de mayor stress a nivel de el ciclo productivo y poder incluir días de consumo medio en un sistema de análisis del comportamiento a nivel de escritorios, como lo es stratusphere Fit de liquidwarelabs.

Una vez obtenidos datos reales de como se comporta el ambiente que estaremos virtualizando debemos de conocer los distintos términos y metodologías para el cálculo correcto de ancho de banda necesario para nuestros escritorios, recuerden en este post solo estamos hablando de Networking.

Daremos por hecho que estamos trabajando con PCoIP, protocolo de despliegue que es utilizado por VMware view y que esta pensado para ser un protocolo sin perdida y que se adapta a las condiciones del medio.

20121210-095300.jpg

Debemos primero conocer un poco más sobre PCoIP, mantengamos lo siguiente en mente:

tenemos dos tipos de PCoIP software y hardware

– software PCoIP nos entrega hasta 30 FPS y tiene una tolerancia máxima de latencia de 250 ms (round trip).

– hardware PCoIP nos entrega un máximo de 60 FPS y tiene una tolerancia máxima de latencia de 150 ms (round trip).

*estos datos de latencia son importantes debido a que debemos considerarlos para poder hacer tuning de nuestro switches/routers en cuanto a buffer de los mismos se refiere y que estos no sean la causa de que lleguemos sobrepasar los máximos

Tenemos los siguientes valores para el cálculo de ancho de banda (obtenidos de lista de requerimientos de Networking creada por teradici):

20121210-185848.jpg

debemos conocer lo siguiente:

– utilización esperada de la red, es decir, cuanto ancho de banda estará asignado a view/PCoIP, esto lo sabremos después de determinar la cantidad de ancho de banda que será utilizado para tráfico de alta prioridad, por ejemplo:

20% VoIP, 80%PCoIP

– número de usuarios concurrentes

* usuarios con audio
* usuarios con video de 480p (se considera un buen valor que estos estarán utilizando 1Mbps por sesión)

– ¿se tendrán sesiones con exclusivamente a través de software PCoIP o también con hardware?

*esto determinará el MTU requerido. En el caso de PCoIP por software y zero clients de PCoIP será un MTU de 1300 y para hardware PCoIP (apex) y hardware zero clients estaremos hablando de un MTU de 1400

– recordemos que al ser un protocolo en tiempo real puede llegar a verse afectado. Se recomienda que 50-150 ms de la comunicación se encuentre como máximo en buffer, reduciendo así la latencia causada por los dispositivos.

– asegurarnos de tener el 80% del tráfico remanente después de haber determinado los servicios críticos que estarán utilizando el medio.

– debemos de asegurarnos de marcar el tráfico de PCoIP mediante el uso de QoS para que este sea considerado como tráfico en tiempo real y solo después de VoIP.

– debemos asegurarnos de nunca tener fragmentación en nuestro medio, para esto de inicio debemos confirmar que todos los dispositivos tengan un MTU mayor al de PCoIP, que por default es de 1400 aunque puede ser modificado a través de la GPO “PCoIPMtuSize”

– debemos tratar de reducir la pérdida de paquetes en el medio, se requiere tener menos de 0.1% por sesión ya que aquellos paquetes que lleguen fuera de orden pueden ser considerados como perdidos. Debemos tener en mente que después de 30 segundos de pérdida en paquetes las sesiones se desconectarán.

– Debemos asegurarnos de no perder el orden en los paquetes, esto incluye métodos de balanceo (ej. Balanceo por paquete) para el caso específico de balanceadores debemos de utilizar sticky sessions (afinidad de las sesiones/persistencia).

– debemos considerar ancho de banda para posibles picos en las sesiones con esto podemos definir fácilmente el límite que podremos aplicar a las sesiones a través de las GPOs:

((anchodebandadisponible parapcoip)/(n usuarios))+500kbps

– en el caso de tener un medio con pérdida de paquetes podemos considerar el modificar la variable de “bandwith floor” con lo que nos aseguramos que se reserva dicha cantidad de ancho de banda considerando siempre que la suma de todos las sesiones no sobrepase el máximo de ancho de banda disponible para PCoIP. Apoyandonos de los logs de PCoIP (principalmente pcoip_server.txt) podemos definir cual es la latencia y el rto (la cantidad de paquetes perdidos al recibir y enviar en un periodo definido). Si tomamos en cuenta esto es muy posible que PCoIP comienze a realizar throttling en el ancho de banda de las sesiones lo cual nos llevaría fácilmente a saturar los medios.

– en el caso que tengamos un medio con pérdida y falta de ancho de banda podríamos reducir la calidad de despliegue permitiendo un máximo de frames por segundo para mantener una sesión que responda de manera correcta, para esto nos enfocamos en la GPO pcoip_admin.

Serie de videos para la instalación de VMware View 5.0

Que tal gente, les vengo a compartir una serie de videos que su servidor y mi compañero Christian Plata estamos preparando básicamente para partners de VMware para poder habilitarlos en la instalación y configuración de distintos productos de VMware. En este caso les traigo una serie de 6 videos para la construcción de una prueba de concepto básica de VMware View 5.0:

  1. http://portal.sliderocket.com/vmware/Academia-VMware-Construyendo-una-prueba-de-concepto-de-VMware-View-Mod1 Módulo 1 – Instalación View Connection Server
  2. http://portal.sliderocket.com/vmware/Academia-VMware-Construyendo-una-prueba-de-concepto-de-VMware-View-Mod2 Módulo 2 – Instalación View Composer
  3. http://portal.sliderocket.com/vmware/Academia-VMware-Construyendo-una-prueba-de-concepto-de-VMware-View-Mod3— Módulo 3 – Instalación de View Agent
  4. http://portal.sliderocket.com/vmware/Academia-VMware-Construyendo-una-prueba-de-concepto-de-VMware-View-Mod4 — Módulo 4 – Instalación de View Client
  5. http://portal.sliderocket.com/vmware/Academia-VMware-Construyendo-una-prueba-de-concepto-de-VMware-View-Mod5 Módulo 5 – Creación de Pooles (PROXIMAMENTE)
  6. Módulo 6 – Optimización de PCoIP (PROXIMAMENTE)

Mi compañero Christian Plata – Channel SE para NOLA en VMware creo la siguiente joya de entrenamiento para zimbra:

  1. Zimbra “vAcademia – Cocinando una instalación de Zimbra” :

http://portal.sliderocket.com/vmware/vAcademia-Cocinando-una-instalaci-n-de-Zimbra.

Espero les sea de utilidad y si tienen ideas de entrenamiento estas son bienvenidas, ¿Que les gustaría aprender?

Linked clones basados en Windows XP no son registrados en el dominio….

Que tal Gente, antes que nada les comento que he estado bastante ocupado por lo cual no he podido escribir, todo el boom de los nuevos productos nos tiene muy ocupados. Pero bueno, el día de hoy les voy a hablar de un problema que me encontré al estar entrenando a un canal para temas de VMware View (5.0) levanté un ambiente de pruebas en nuestro laboratorio el cual consiste en esto:

  • 1 Controlador de Dominio Windows 2008 R2 (Servicios core, DHCP, DNS, AD, etc)
  • 1 Ruteador Virtual Vyatta
  • 1 View Manager
  • 1 Servidor de Replica
  • 1 vCenter basado en Windows con VMware Composer (el appliance de vCenter Linux no soporta composer debido a la dependencia que se tiene de ADAM)

Preparé mi máquina padre con todo lo necesario tomé un snapshot y comencé con la creación de el pool de escritorios, todo iba bien, se creo la replica y los clones ligados, pero extrañamente estos estuvieron por bastante tiempo en “customizing” para después darme este error:

Investigando me encontré con este KB de VMware:

Provisioning linked clone desktops fail with the error: View Composer agent initialization state error (18): Failed to join the domain

Lo cual nos lleva a instalar una actualización a nuestro cliente Windows XP para que este pueda unirse a controladores de Dominio Windows 2008 que están en modo RODC (Read Only), aplique la actualización y todo trabajó como debía, una vez más gracias al Knowledge Base!

¿VDI para la smb?

Que tal gente, un post rápido, hace algunos días ya, leí un articulo muy interesante sobre un nueva familia de productos  Iomega (una compañía mas de EMC) que se liberó recientemente “StorCenter PX”.

En el evento de EMC World se realizo una prueba muy interesante, utilizando un almacenamiento px6-300d el cual cuenta con 6 bahias de discos teniendo 2 discos SSD de 128 GB y 4 discos de 2TB c/u fueron capaces de realizar el boot de 100 escritorios view que estaban siendo ejecutados en equipo UCS de Cisco ¿Impresionante Cierto?

Les recomiendo totalmente echarle un vistazo al articulo y también al video donde se nos muestra la prueba realizada por Chad Sakac.

Aquí les dejo el articulo:

Virtual Desktop Infrastructure (VDI) Boot Storm Surprises Audience With New Standard for Low Cost per Seat

Y les dejo el video de la demo en el EMC World: