Los desafíos y consejos para proyectos de virtualización de servidores

Índice de Contenido
  1. Introducción
  2. Tamaño de los clientes
  3. Desafíos de la virtualización de servidores
  4. Soluciones para abordar los desafíos
  5. Errores comunes en la instalación/configuración/mantenimiento del software de virtualización
  6. Tendencias y cambios en la virtualización
  7. Preocupaciones y desafíos futuros
  8. Optar por productos de virtualización especializados
  9. Decidir no virtualizar un servidor
  10. Desafíos futuros y consejos finales

Introducción

La virtualización de servidores ha ganado popularidad en la última década, hasta el punto de considerarse una práctica estándar. Pero, ¿cuáles son los consejos más actualizados para planificar, implementar y mantener un proyecto de virtualización? Hemos consultado a dos expertos: David Barker, fundador y director técnico de 4D Data Centers en Londres, Reino Unido, y Peter Rittwage, socio e ingeniero técnico senior de IntelliSystems con oficinas en Georgia y Carolina del Sur.

Tamaño de los clientes

Pregunta: Describe el tamaño típico de tus clientes.

Respuesta de Barker: Nuestros clientes van desde pequeñas empresas con unos pocos empleados hasta grandes empresas con más de 1,000 empleados. La demografía general de nuestros clientes se compone de colocation, nube pública y nube privada administrada. Mientras que la colocation representa la mayor parte de nuestro negocio en el contexto de la virtualización, la mayoría de los clientes más pequeños utilizan la plataforma de nube pública que operamos, mientras que las grandes empresas suelen optar por plataformas de nube privada administrada basadas en Hyper-V de Microsoft o VMware de Dell Technologies.

Respuesta de Rittwage: El tamaño típico es de alrededor de 25 usuarios, aunque tenemos algunos con más de 300 y otros con solo unos pocos equipos.

Desafíos de la virtualización de servidores

Pregunta: ¿Cuáles son los mayores desafíos al virtualizar servidores en la actualidad?

Respuesta de Barker: El mayor desafío en la virtualización sigue siendo el uso compartido de recursos en la infraestructura y las aplicaciones. Cualquiera que sea la forma en que lo mires, algunas cosas deberán tener prioridad sobre otras dentro de la infraestructura.

Los diferentes tipos de buses en los dispositivos electrónicos

Al diseñar una plataforma virtualizada, es un acto de equilibrio entre los recursos en competencia, y es probable que aún tengas cuellos de botella, pero esperemos que los hayas trasladado a donde tengan menos impacto en tus aplicaciones. Debes considerar la provisión de red, tanto para el tráfico de área amplia externa como para el tráfico de almacenamiento. Si estás consolidando de 100 máquinas físicas, cada una con una interfaz de red de 1 Gb que se utiliza bastante, a 10 nodos de hipervisor, es probable que necesites aumentar la red a al menos 10 Gb para poder manejar el tráfico condensado de esos sistemas que se ejecutan en un número reducido de NIC. No siempre puedes esperar recoger la red existente y trasladarla a un entorno virtualizado recién creado.

Existen problemas similares con el almacenamiento. La mayoría de las implementaciones virtualizadas todavía provisionan una matriz de almacenamiento centralizada, y esto a menudo es el cuello de botella para la implementación de sistemas virtualizados. Si bien tener una red de almacenamiento de 10 Gb probablemente te brinde suficiente rendimiento de almacenamiento en bruto para la matriz, a menudo se pasa por alto la E/S de disco cruda disponible de los discos físicos debido a que es menos importante cuando las aplicaciones se distribuyen en varios servidores físicos. Esto significa que los discos no pueden mantenerse al día con la cantidad de lecturas/escrituras que se les lanzan desde la cantidad de máquinas virtuales, y el rendimiento se verá afectado, especialmente en aplicaciones de bases de datos, que dependen en gran medida de la E/S de disco.

Respuesta de Rittwage: Todavía nos encontramos con dongles de seguridad de hardware que necesitan estar conectados a USB, y a veces no se comunicarán a través de la capa de virtualización en la máquina virtual. También ocasionalmente nos encontramos con un proveedor de software que no "admite" la virtualización y luego no ayuda con el soporte del producto, aunque eso es menos frecuente en la actualidad.

Soluciones para abordar los desafíos

Pregunta: ¿Cuáles son las soluciones para abordar estos desafíos cuando se planifica un proyecto de virtualización?

Respuesta de Barker: Si bien existen soluciones técnicas que pueden ayudar a aliviar algunos de estos problemas, como el almacenamiento en caché SSD dentro de la matriz de almacenamiento o pasar a una plataforma de almacenamiento en clúster, estas soluciones también tienen sus propias desventajas que deben considerarse al mitigar los desafíos.

Una de las mejores formas de mitigar los problemas es a través de una evaluación detallada de los servidores físicos actuales y planificar cómo vas a virtualizar la infraestructura. Antes de tomar decisiones sobre hardware o virtualización, debes saber cuánto ancho de banda utiliza cada servidor para el tráfico de WAN, la utilización actual de CPU/RAM durante las cargas normales, así como las cargas máximas y la cantidad de E/S de disco que se produce en cada servidor.

Cómo entrar al programa de configuración del BIOS en tu computadora

Tener esta información desde el principio te permite tomar decisiones sobre la adquisición de hardware que al menos brinde el rendimiento actual y, con suerte, mejore el rendimiento a través de nuevos conjuntos de chips, una memoria mejor, etc. También es importante asegurarse de haber trazado adecuadamente los escenarios de falla dentro del entorno virtualizado y de tener recursos de hipervisor de repuesto disponibles para respaldar al menos la falla de un nodo de hipervisor físico para que las máquinas virtuales en ejecución tengan recursos a los que migrar sin afectar demasiado el rendimiento de las máquinas virtuales y aplicaciones que ya se están ejecutando en esos nodos.

Respuesta de Rittwage: Por lo general, hay una solución de licencias alternativa disponible además de las claves de hardware, pero debes conocerla antes de la migración. También existe software para virtualizar dispositivos USB.

Errores comunes en la instalación/configuración/mantenimiento del software de virtualización

Pregunta: ¿Cuáles son las cosas comunes que la gente hace mal al instalar/configurar/mantener el software de virtualización?

Respuesta de Barker: Las cosas habituales que salen mal al implementar virtualización se pueden resumir de la siguiente manera:

1. Distribución incorrecta de los recursos del nodo. Esto sería algo así como instalar CPUs de 24 núcleos con solo 64 GB de RAM. En un entorno virtualizado, la RAM no se comparte entre las máquinas virtuales y es probable que te quedes sin memoria mucho antes de quedarte sin CPU (que generalmente se puede sobresuscribir más de lo planeado originalmente, pero una buena regla general es 1:4 con 1 núcleo físico a 4 núcleos virtuales).

2. Incompatibilidad entre el almacenamiento y los requisitos. Es más importante dimensionar correctamente el disco que la CPU: los costos de almacenamiento aumentarán rápidamente en comparación con la asignación de núcleos de CPU. Recuerda que el iSCSI de 10 Gb es muy rápido y que los discos mecánicos son realmente lentos. Si tienes muchas bases de datos de transacciones altas que estás tratando de virtualizar, necesitarás una gran cantidad de E/S de disco, lo que probablemente signifique una gran matriz de discos de 15,000 RPM.

Entendiendo los permisos de archivos y directorios en UNIX

3. Demasiadas redes y demasiados conmutadores virtuales. Con frecuencia vemos entornos virtualizados con muchas redes y VLAN virtuales para cada máquina virtual invitada, y no es necesario (la dirección IP de administración no necesita estar en las mismas redes que las máquinas virtuales invitadas) y solo agrega complejidad a la gestión de la plataforma. A menos que haya un requisito muy específico para ese nivel de separación de redes, mantén las redes al mínimo y usa listas de acceso o reglas de firewall para gestionar la separación de las máquinas virtuales en la red.

4. De manera similar, a menudo hay demasiados conmutadores virtuales. Si necesitas muchas VLAN para tu entorno, generalmente no necesitarás un conmutador virtual separado para cada VLAN, y un diseño adecuado de VLAN/conmutadores virtuales proporcionará suficiente aislamiento de red para la mayoría de los casos de uso.

Respuesta de Rittwage: La configuración incorrecta de vCPUs, RAM o almacenamiento es común. La mayoría de los problemas que tengo que solucionar se deben a que un administrador ha sobrecargado el almacenamiento compartido. Puedes configurar unidades dinámicas grandes que no ocupen mucho espacio al principio, pero si permites que crezcan sin control, puedes quedarte sin espacio para todas tus máquinas virtuales invitadas sin una planificación adecuada. También debes prestar mucha atención a la calidad y estabilidad del hardware para no crear un peligroso punto único de falla en tu red al consolidar todos tus servidores. Siempre debes contar con hardware redundante.

Tendencias y cambios en la virtualización

Pregunta: Lo mejor de 2008 o 2013 no necesariamente es lo mejor en 2018. ¿Qué tendencias de los primeros días de la virtualización han desaparecido?

Respuesta de Barker: El principio básico de la virtualización se ha mantenido igual desde que VMware presentó su producto de estación de trabajo en 1999 y ESX en 2001. Hemos visto aumentos de rendimiento y mayores demandas en el almacenamiento, en particular.

Probablemente, el cambio más grande ha ocurrido en las áreas de gestión de la virtualización, redes y migración de máquinas virtuales. En los primeros días, las máquinas virtuales solían ser estáticas: virtualizabas un servidor físico y tenías varias máquinas virtuales que no se movían de ningún lado; y si el servidor físico fallaba, entonces todas las máquinas virtuales en ese servidor también fallaban. La introducción de productos como vMotion resolvió este problema y permitió grandes clústeres de hipervisores donde las máquinas virtuales podían migrar fácilmente entre los servidores físicos en caso de una falla. Esto se ha llevado más lejos con la replicación de VMware vMotion y Hyper-V, permitiendo que las máquinas virtuales se repliquen en tiempo real a clústeres separados en ubicaciones físicamente diferentes y para hacer frente al riesgo de una falla completa del clúster.

Cómo recuperar una contraseña de BIOS perdida: dos métodos efectivos

Respuesta de Rittwage: La virtualización de almacenamiento solía ser mucho más lenta, por lo que solía ver particiones de disco en bruto o discos asignados a máquinas virtuales. Esto ya no es necesario ni se utiliza. No hay o hay muy pocas consecuencias por almacenamiento virtual local.

Preocupaciones y desafíos futuros

Pregunta: ¿Qué preocupaciones sobre el futuro de la virtualización se han demostrado infundadas? Por otro lado, ¿cuáles han resultado subestimadas?

Respuesta de Barker: Creo que las mayores preocupaciones, que resultaron infundadas, han estado relacionadas con la seguridad en el uso de la virtualización y los riesgos de tener múltiples máquinas virtuales en ejecución dentro de la misma infraestructura física. Aunque recientemente se ha descubierto las vulnerabilidades Spectre y Meltdown en las arquitecturas de CPU, que han vuelto a despertar algunas de estas preocupaciones, se han lanzado parches rápidamente y el exploit requería acceso de root o administrador a los sistemas mismos (si un atacante tiene esa información sobre tu nube privada, es un problema mucho mayor). En general, el aislamiento de recursos y el aislamiento de máquinas virtuales se han demostrado completamente seguros, y los problemas generalmente surgen cuando se configuran incorrectamente durante la implementación. Un entorno virtual adecuadamente diseñado con aislamiento de red y aislamiento de almacenamiento (si es necesario) es muy seguro.

Respuesta de Rittwage: Siempre se ha hablado de malware/virus que podrían atacar el hipervisor, pero no he visto ninguno. Supongo que es muy difícil programar algo así.

Optar por productos de virtualización especializados

Pregunta: ¿En qué contexto deberías optar por un producto de virtualización menor y/o específico de aplicaciones en lugar de usar los principales?

Respuesta de Barker: En el 99 por ciento de los casos de uso, la virtualización mediante Hyper-V, VMware o KVM/Xen será la mejor opción, y la decisión dependerá de las habilidades presentes para administrar esas plataformas, así como de la disposición para pagar los costos de licencia (que aumentan desde KVM/Xen hasta Hyper-V y VMware como el más caro).

Cómo funciona y cómo probar una fuente de alimentación para PC

VMware tiene excelentes herramientas de gestión y un historial en la provisión de virtualización de hardware, pero tiene un precio relativamente alto, especialmente si estás implementando un gran proyecto.

Si tu entorno es principalmente de Windows y la mayoría de las máquinas virtuales invitadas ejecutarán Windows Server, entonces es posible que prefieras un entorno de Hyper-V. Los costos de licencia pueden ser más bajos si se implementan correctamente con Windows Data Centre Edition o mediante el uso de Windows Server Hyper-V Core, y las interfaces de gestión serán familiares para los usuarios.

Tanto KVM como Xen son excelentes plataformas de hipervisor de código abierto, pero carecen de interfaces de gestión. Si bien existen opciones para abordar esto, como utilizar un entorno OpenStack o un frontend como OnApp, esto agrega cierta complejidad al diseño si no tienes experiencia previa en el uso de esas herramientas o software de código abierto en general.

Respuesta de Rittwage: No estoy seguro de si usaría algo que no sean los principales para ningún rol empresarial crítico, pero para practicar y aprender sobre el producto, o para situaciones de recuperación de desastres temporales, he visto el uso de VirtualBox.

Decidir no virtualizar un servidor

Pregunta: ¿En qué contexto deberías optar por no virtualizar un servidor?

Respuesta de Barker: La mayoría de las cargas de trabajo se pueden virtualizar, pero si tienes aplicaciones con uso intensivo de CPU/RAM o E/S de disco muy pesada, puede ser mejor tenerlos como servidores independientes dentro de un entorno virtualizado más amplio. También puedes implementar los servidores físicos como hipervisores, pero con una sola máquina virtual en ejecución, lo que puede ser una buena manera de garantizar que los recursos necesarios estén disponibles para esa aplicación, al tiempo que se aprovechan los beneficios de gestión y migración que un entorno virtualizado puede ofrecer.

Cómo diagnosticar y reemplazar una fuente de alimentación defectuosa en tu PC

Del mismo modo, las aplicaciones heredadas pueden ser un problema al ponerlas en un entorno virtual: no todas las aplicaciones funcionarán correctamente con CPU virtuales o NIC virtuales, ya que fueron diseñadas para interactuar con el hardware físico en sí. Gracias a la madurez del mercado de la virtualización, estas aplicaciones son cada vez menos y menos preocupantes con el paso del tiempo.

Respuesta de Rittwage: En general, si planeas utilizar todos los recursos para una función específica de alto consumo de CPU o E/S, como un servidor SQL ocupado, no hay muchas razones para virtualizarlo. La virtualización se trata de compartir el hardware subyacente con otras tareas.

Desafíos futuros y consejos finales

Pregunta: Mirando hacia adelante cinco años más, ¿qué crees que serán los nuevos desafíos/preocupaciones en la virtualización que aún no se comprenden bien?

Respuesta de Barker: En su mayoría, sospecho que esto estará relacionado con un cambio hacia una mayor virtualización de red en el hardware de red física para admitir cargas de trabajo y máquinas virtuales que se migran regularmente entre los nodos de hipervisor, lo que significa garantizar que la infraestructura de red física que respalda tu infraestructura virtual esté correctamente diseñada para SDN, scripting y vxLANs.

Otra área será el aumento continuo del uso de la contenerización dentro de las máquinas virtuales: productos como Docker y Kubernetes permiten la virtualización del sistema operativo y las aplicaciones dentro de la propia máquina virtual. En los casos de uso adecuados, esto proporciona grandes beneficios en cuanto a velocidad de implementación, consistencia del entorno y capacidad de migrar cargas de trabajo de aplicaciones al instante entre máquinas virtuales.

Respuesta de Rittwage: En este momento, la virtualización está bastante madura, por lo que no estoy seguro de qué nuevos desafíos surgirán en los próximos 5 años.

Cómo reemplazar un fusible de la fuente de alimentación y ahorrar dinero

Recomendaciones generales

Pregunta: En general, ¿qué otros consejos tienes para las personas encargadas de implementar y mantener proyectos de virtualización de servidores?

Respuesta de Barker: Planifica el crecimiento. Durante la fase de diseño, después de realizar tu evaluación de la infraestructura existente, asegúrate de planificar cómo expandirás la plataforma con nuevos hipervisores o almacenamiento adicional de una manera que minimice el impacto en el entorno. Con los entornos virtualizados, se espera una disponibilidad mucho mayor, y debes poder agregar otro conjunto de discos o cuatro hipervisores sin tener que rediseñar toda la plataforma solo porque no había suficientes puertos de conmutador para la configuración inicial.

También asegúrate de tener una buena estrategia de copia de seguridad. Aunque todo está virtualizado ahora y es probablemente mucho más resistente a un fallo de componente físico de la infraestructura, las cosas todavía pueden ir mal. Tener todo virtualizado ofrece otras estrategias de copia de seguridad, como instantáneas de máquinas virtuales y tecnologías como [appliances de copia de seguridad], que facilitan la realización de copias de seguridad, la gestión de las copias de seguridad y la restauración en comparación con cuando todo estaba en sus propios servidores individuales.

Respuesta de Rittwage: Planifica el rendimiento, el crecimiento y la redundancia. Las personas esperan poder utilizar un servidor costoso durante 5 años o más. Utiliza un consultor que haya trasladado con éxito a muchas empresas a la virtualización.

Soluciones para problemas comunes de gestión de energía en laptops

En Newsmatic nos especializamos en tecnología de vanguardia, contamos con los artículos mas novedosos sobre Centros de Datos, allí encontraras muchos artículos similares a Los desafíos y consejos para proyectos de virtualización de servidores , tenemos lo ultimo en tecnología 2023.

Artículos Relacionados

Subir

Utilizamos cookies para mejorar su experiencia de navegación, mostrarle anuncios o contenidos personalizados y analizar nuestro tráfico. Al hacer clic en “Aceptar todo” usted da su consentimiento a nuestro uso de las cookies.