¿Qué tipo de almacenamiento utilizan las personas para serveres VMware ESX?

VMware y muchos evangelists de networking tratan de decirle que las SAN de fibra sofisticadas (= caras) son la "única" opción de almacenamiento para los serveres VMware ESX y ESXi. Bueno, sí, por supuesto. El uso de una SAN es rápido, fiable y hace posible vMotion. Estupendo. Pero: ¿Pueden todos los usuarios de ESX / ESXi pagar realmente SANs?

Mi teoría es que less del 20% de todas las instalaciones de VMware ESX en este planeta realmente utilizan SAN de fibra o iSCS. La mayoría de estas instalaciones serán en compañías más grandes que pueden permitirse esto. Yo podría pnetworkingecir que la mayoría de las instalaciones de VMware utilizan "almacenamiento adjunto" (vmdks se almacenan en los discos dentro del server). La mayoría de ellos se ejecutan en las PYME y hay tantos de ellos!

Ejecutamos dos serveres ESX 3.5 con almacenamiento adjunto y dos serveres ESX 4 con un iSCS san. Y la "diferencia real entre ambos" es apenas notable 🙂

¿Conoces alguna estadística oficial para esta pregunta? ¿Qué usas como medio de almacenamiento?

Hago un montón de trabajo de consultoría de VMware y diría que los porcentajes están más cerca del 80% de la base instalada de alta disponibilidad de almacenamiento compartido (FC, iSCSI o NAS de gama alta) y muchos de mis clientes son las PYME. El factor key que he encontrado es si el negocio trata a su server de time como crítico o no, para la mayoría de las empresas hoy en día es.

Usted ciertamente puede ejecutar VM de alto performance desde el almacenamiento conectado directamente (un HP DL380 G6 con 16 unidades internas en una matriz RAID 10 tendría IO de disco bastante rápido), pero si está construyendo un VMware o cualquier otro entorno virtualizado para replace a decenas, cientos , o miles de serveres, entonces estás loco si no estás poniendo mucho esfuerzo (y probablemente dinero) en una robusta architecture de almacenamiento.

No es necesario comprar una SAN de alta gama para las funciones de clúster. Puede implementarlas con un NAS bastante barato (o una SAN virtualizada como VSA de HP \ Lefthand) y seguir utilizando almacenamiento certificate. Sin embargo, si está utilizando el almacenamiento compartido y no tiene networkingundancia en todos los puntos de la infraestructura de SAN \ NAS, entonces no debería estar realmente utilizando para mucho más que testings. Y la networkingundancia es (como mínimo) NIC de almacenamiento de HBA dual (independiente) en sus serveres, tejidos independientes duales, controlleres networkingundantes en la SAN, caching de respaldo de la batería, desagregación de caching, ventiladores networkingundantes intercambiables y fonts de alimentación, etc. \ 10 \ 50 y el número apropiado de repuestos en caliente.

La verdadera diferencia entre sus sistemas es que si uno de sus sistemas autónomos falla catastróficamente, tendrá mucho trabajo por hacer para recuperarlo y tendrá time de inactividad simplemente manteniéndolo remendado. Con sistemas conectados a SAN en clúster, parchear los hipervisores o incluso actualizar el hardware del hipervisor, debería dar lugar a un time de inactividad cero. Un fallo catastrófico en el server simplemente networkinguce el service durante el time que tarda en reiniciar la máquina virtual en un nodo separado (en el peor) o si tiene tolerancia a errores que cubre esas máquinas virtuales, entonces no tiene time de inactividad.

Como empresa tenemos más de mil hosts, empezamos con FC, probamos iSCSI por un time, pero nos retiramos a FC debido a problemas de performance. Estamos mirando seriamente a NFS pero aún no tenemos conclusiones. Ah y usamos HP XP / EVA y algunos NetApp, no tenemos barra de almacenamiento local de escritorio / dev hosts.

Como puede ver, no hay un tamaño único para todos, y no tiene que una única solución de almacenamiento de class. Puede tener varias classs de almacenamiento dependiendo de la disponibilidad y los requisitos de performance

Para escritos y lecturas de alto performance, he encontrado a FC inmejorable en performance, y aunque el precio es alto … Simplemente funciona … para get unas prestaciones de performance más mundanas iSCSI ha funcionado bastante bien, así que normalmente tengo el intercambiar files de buzón de server en un subsistema de disco de FC y las unidades de arranque reales en un disco de interfaz iSCSI, con los serveres DNS y las máquinas de Active Directory ejecutándose también desde iSCSI.

He funcionado ESX con SANs, NAS, y DAS. Todo depende de:

  1. presupuesto
  2. experiencia
  3. centro de datos y / o espacio en rack
  4. dinero

Por confiabilidad y velocidad, no creo que pueda superar una SAN.

Por la fiabilidad y el costo, me gustaría ir con NAS.

Y por velocidad y costo, DAS.

No es que las opciones individuales no se solapan algunas, pero esas son las fortalezas que he presenciado.

Ejecutamos 4 serveres ESX 4 y usamos una SAN EqualLogic iSCSI.

En las instalaciones más pequeñas de almacenamiento local es perfectamente aceptable, siempre y cuando usted tiene discos decentes – diría 10k RPM + unidades SAS. La única vez que debe utilizar un disco compartido (i intencionalmente no dijo san como su disco compartido puede estar apagado y compartir NFS) es cuando se necesita hacer clústeres – VMWare HA y DRS.

En este momento tenemos 3 niveles de almacenamiento: SAN de FiberChannel, SAN de gama alta de Equalogix y SAN de gama baja MD3000i. Los dos últimos son iSCSI. También ejecutamos algunos serveres fuera del almacenamiento local de los serveres ESX – en su mayoría serveres de utilidad que no nos importa si están abajo durante una hora o dos mientras arreglamos las cosas si todo va boom en una caja.

También estamos ejecutando nuestro entorno de testing de un NAS construido en casa con unidades SATA de 7,2k y destino empresarial iSCSI (el performance no es tan bueno, pero nos consigue).

Mucha gente tiende a ejecutar contra NFS comparte en entornos más grandes también. He querido jugar con esto por un time, pero no he encontrado el time.

Ejecutamos cuatro (bien, cuatro en vivo, uno para testings) hosts ESXi con un tejido iSCSI construido a partir de switches de productos básicos, y un Hitachi SAN de gama baja – un SMS-100.

Incluso en ese nivel, tenemos controlleres gemelos, cada uno con puertos gemelos en un backplane SAS para que cualquiera de los controlleres pueda tomar los discos, y los nics gemelos – que cruzamos alámbrico a los interruptores gemelos, y los nics gemelos en los hosts ESX.

Cada uno de los volúmenes vfs tiene cuatro routes visibles, por lo que es razonablemente tolerante. Utilizamos la conmutación de Dell powenetworkingge para la tela – tienen problemas potenciales seguro (lo less posible, ningunas PSUs networkingundantes). Pero son también bastante baratos que tener dos piezas de recambio preconfiguradas en una caja list para intercambiarse adentro se convierte en una posibilidad real.

obviamente, si quieres más nines, necesitas gastar más dinero, pero creo que la belleza de iSCSI, ESXi y commodity Gigabit Ethernet kit es que puedes golpear por encima de tu peso en términos de resistencia y performance.

Todo tiene sus pros y sus contras … la línea de background es SLA, carga de aplicación, y la escala. Por lo tanto, si necesita un almacenamiento de alto performance para un deployment pequeño (1-5 hosts), probablemente podría hacerlo con NFS (en realidad he conseguido una mejor latencia con NFS que con SAN usando discos RAM). Ahora trate de escalar eso y verá que el costo de replicar su configuration a escala es muy comparable a un SAN agradable haciendo FC la única opción lógica para leer … La mayoría de las veces, termino usando combinaciones para varios services (aplicaciones , Bases de datos, copys de security, files) no una sola plataforma para optimizar el coste, dependiendo de las necesidades.