¿El caching NFS es adecuado para almacenar en caching files grandes (200kb a 50mb?)

Tengo un disco de 1 TB en un server que otros 4 serveres a menudo acceden a través de NFS para distribuir los files a través de HTTP. Estoy viendo una carga alta en el server central y quiero almacenar estos files en caching en los serveres locales, ya que rara vez cambian. ¿Es el almacenamiento en caching NFS adecuado o debo estar buscando algo más?

Gracias

2 Solutions collect form web for “¿El caching NFS es adecuado para almacenar en caching files grandes (200kb a 50mb?)”

El modo NFS:

FS-Cache probablemente le ayudaría si tiene un espacio mínimo en los serveres cliente que le impide save copys completas de todos sus files grandes (por ejemplo, sólo desea o necesita almacenar en caching los files más visitados).

Hay algunas advertencias (como se señala en la documentation de Red Hat ):

  • Abrir un file desde un sistema de files compartido para E / S directa omitirá automáticamente la caching. Esto se debe a que este tipo de acceso debe ser directo al server.
  • Abrir un file de un sistema de files compartido para escribir no funcionará en NFS versión 2 y 3. Los protocolos de estas versiones no proporcionan suficiente información de administración de coinheritance para que el cliente detecte una escritura simultánea en el mismo file desde otro cliente.
  • Como tal, abrir un file desde un sistema de files compartido para E / S directa o para escribir downloadá la copy almacenada en caching del file. FS-Cache no almacenará en caching el file de nuevo hasta que ya no se abre para E / S directa o escritura.
  • Además, esta versión de FS-Cache sólo almacena caching files NFS regulares. FS-Cache no almacenará en caching directorys, enlaces simbólicos, files de dispositivos, FIFOs y sockets.

Además, se requiere que se ejecute en types específicos de filesystems en el cliente NFS para proporcionar el soporte FS necesario para los attributes del sistema de files que FS-Cache utiliza para realizar un seguimiento de las cosas (ext3 con user_xattr, ext4, btrfs, xfs) .

La forma rsync:

Otra alternativa es utilizar rsync y mantener una copy completa de los files en cada sistema. Si estas son cosas que sólo cambian periódicamente (como diarias o semanales), esto puede ser más beneficioso para usted desde el punto de vista de tener less complejidad en la gestión y debugging de problemas.

La desventaja de esto es que ahora estás guardando N + 1 copys donde N es el número de sistemas que necesitas para ejecutarlo y tendrás que encontrar un mecanismo para manejar los rsyncs periódicamente (por ejemplo, scripts + cron , etc).

Veo que has labeldo tu pregunta con squid , así que claramente lo sabes. ¿Cómo lo estás utilizando? Creo que su problema se puede resolver mediante el uso de calamar en el proxy inverso (httpd-accelerator) modo . Si usted tiene que configurar correctamente, entonces usted debe tener no preocuparse por el lado NFS.

  • Tráfico Avanzado de Calamares a la Red Tor
  • Squid en Linux Windows Pasar a través de la authentication
  • Squid Proxy Antivirus - Recomendaciones / Rendimiento
  • Squid hace que Internet sea lento
  • directory activo + planificación de calamar para una networking grande con más de 7000 usuarios
  • ¿Cómo transmitir el tráfico HTTPS a través de calamares de forma transparente?
  • Squid HTTPS Tunneling utilizando CONNECT muy lento
  • La tecnología de geolocation IP más ligera para el sitio estático?
  • Configuración de Squid -> Conexión VPN
  • Ubuntu Server 9.10 Errores de installation del server Karmic Koala y Squid Proxy
  • ¿Cómo configuro el proxy inverso de squid para usar tráfico https y http?
  • Utilizar Squid cache_peer para el performance en un clúster de Apache
  • Problemas al configurar un proxy transparente
  • El linux y los temas del servidor de Windows, como ubuntu, centos, apache, nginx, debian y consejos de red.