RAID 50 24Port rápido escribe Slow Reads – Ubuntu

¡¿Que esta pasando aqui?! Estoy desconcertado.

serveradmin@FILESERVER:/Volumes/MercuryInternal/test$ sudo dd if=/dev/zero of=/Volumes/MercuryInternal/test/test.fs bs=4096k count=10000 10000+0 records in 10000+0 records out 41943040000 bytes (42 GB) copied, 57.0948 s, 735 MB/s serveradmin@FILESERVER:/Volumes/MercuryInternal/test$ sudo dd if=/Volumes/MercuryInternal/test/test.fs of=/dev/null bs=4096k count=10000 10000+0 records in 10000+0 records out 41943040000 bytes (42 GB) copied, 116.189 s, 361 MB/s 

DE NOTA: Mi RAID50 es 3 juegos de 8 discos. – Esto puede no ser la mejor configuration para SPEED.

Sistema operativo: Ubuntu 12.04.1 x64
Hardware Raid: RocketRaid 2782 – Controlador de 24 puertos
HardDriveType: Seagate Barracuda ES.2 1TB
Drivers: v1.1 Drivers de Linux de código abierto.

Por lo tanto, 24 unidades de 1 TB, particionadas utilizando separadas. El sistema de files es ext4. El planificador de E / S fue noop pero lo han cambiado a la date límite sin ningún beneficio / costo de performance aparentemente.

 serveradmin@FILESERVER:/Volumes/MercuryInternal/test$ sudo gdisk -l /dev/sdb GPT fdisk (gdisk) version 0.8.1 Partition table scan: MBR: protective BSD: not present APM: not present GPT: present Found valid GPT with protective MBR; using GPT. Disk /dev/sdb: 41020686336 sectors, 19.1 TiB Logical sector size: 512 bytes Disk identifier (GUID): 95045EC6-6EAF-4072-9969-AC46A32E38C8 Partition table holds up to 128 entries First usable sector is 34, last usable sector is 41020686302 Partitions will be aligned on 2048-sector boundaries Total free space is 5062589 sectors (2.4 GiB) Number Start (sector) End (sector) Size Code Name 1 2048 41015625727 19.1 TiB 0700 primary 

Para mí esto debería estar funcionando bien. ¿No puedo pensar en cualquier cosa que estaría causando este otro entonces errores fundamentales del conductor? Me parece que no puede get mucho / si es superior a los 361MB un segundo, es este golpear el "SATA2" velocidad de enlace, que no debe darse es una tarjeta PCIe2.0. O tal vez algún quirk caching – Tengo habilitado Back Write.

¿Alguien tiene alguna sugerencia? ¿Pruebas para mí? ¡O si necesita más información, me complace proporcionarlo!

Este es un server de files de video para máquinas de edición, por lo que tenemos una preference por FAST lee sobre escritura. Me esperaban más de RAID 50 y 24 unidades juntos …

EDIT: (resultados de hdparm)

 serveradmin@FILESERVER:/Volumes/MercuryInternal$ sudo hdparm -Tt /dev/sdb /dev/sdb: Timing cached reads: 17458 MB in 2.00 seconds = 8735.50 MB/sec Timing buffenetworking disk reads: 884 MB in 3.00 seconds = 294.32 MB/sec 

EDIT2: (detalles de la configuration)

Además, estoy usando un tamaño de bloque RAID de 256K. Me dijeron que un tamaño de bloque más grande es mejor para los files más grandes (en mi caso video grande). PANTALLA DE WEBGUI

EDIT3: (Bonnie ++ Resultados. ¡Amaría una cierta dirección con esto!)

Bonnie ++ Resultados

Utilice una herramienta de benchmarking diseñada específicamente como Iozone para get una mejor idea del performance real del sistema. Con demasiada frecuencia, veo a las personas que usan dd para comparar. No es una buena representación de las cargas de trabajo de E / S de la vida real.

Sobre la base de los resultados de una testing de Iozone, probablemente me vería en la situación de almacenamiento en caching y, posiblemente, si tiene alguna barrera habilitada. Esto es extraño porque su problema parece ser la velocidad de lectura. Hmm …

Definitivamente no estás alcanzando los límites del enlace SAS / SATA. Usted tiene 24 conexiones de extremo a extremo, ¿verdad? No hay expansor SAS en la mezcla, ¿correcto?