cambiando una unidad defectuosa en una matriz de raid con una nueva … pero WD cambió el tamaño de bloque?

Tengo una marca nueva (mismo model) WD Caviar unidad verde para replace el defectuoso en mi matriz 5x2TB Raid 5. Sin embargo, el nuevo disco parece ser ligeramente diferente. De acuerdo con la Internet, Western Digital cambió su tamaño de bloque?

Aquí está uno de los discos originales:

Disk /dev/sda: 2000.4 GB, 2000398934016 bytes 81 heads, 63 sectors/track, 765633 cylinders, total 3907029168 sectors Units = sectors of 1 * 512 = 512 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disk identifier: 0xfdeee051 Device Boot Start End Blocks Id System /dev/sda1 63 3907025198 1953512568 83 Linux 

Y el nuevo:

 Disk /dev/sdd: 2000.4 GB, 2000398934016 bytes 81 heads, 63 sectors/track, 765633 cylinders, total 3907029168 sectors Units = sectors of 1 * 512 = 512 bytes Sector size (logical/physical): 512 bytes / 4096 bytes I/O size (minimum/optimal): 4096 bytes / 4096 bytes Disk identifier: 0x11e82af4 Device Boot Start End Blocks Id System /dev/sdd1 2048 3907029167 1953513560 83 Linux 

Tenga en count el tamaño de E / S diferente. Cuando bash sfdisk la tabla de la partición sobre …

 [root]# sfdisk -d /dev/sda | sfdisk /dev/sdd Checking that no-one is using this disk right now ... OK Disk /dev/sdd: 243201 cylinders, 255 heads, 63 sectors/track Old situation: Warning: The partition table looks like it was made for C/H/S=*/81/63 (instead of 243201/255/63). For this listing I'll assume that geometry. Units = cylinders of 2612736 bytes, blocks of 1024 bytes, counting from 0 Device Boot Start End #cyls #blocks Id System /dev/sdd1 0+ 765633- 765634- 1953513560 83 Linux end: (c,h,s) expected (1023,80,63) found (513,80,63) /dev/sdd2 0 - 0 0 0 Empty /dev/sdd3 0 - 0 0 0 Empty /dev/sdd4 0 - 0 0 0 Empty New situation: Units = sectors of 512 bytes, counting from 0 Device Boot Start End #sectors Id System /dev/sdd1 63 3907025198 3907025136 83 Linux /dev/sdd2 0 - 0 0 Empty /dev/sdd3 0 - 0 0 Empty /dev/sdd4 0 - 0 0 Empty Warning: partition 1 does not end at a cylinder boundary sfdisk: I don't like these partitions - nothing changed. (If you really want this, use the --force option.) 

Ehhhh no quiero forzarlo. Cuando bash hacerlo manualmente …

 [root]# fdisk /dev/sdd The device presents a logical sector size that is smaller than the physical sector size. Aligning to a physical sector (or optimal I/O) size boundary is recommended, or performance may be impacted. Command (m for help): n Command action e extended p primary partition (1-4) p Partition number (1-4, default 1): Using default value 1 First sector (2048-3907029167, default 2048): 

No me deja comenzar la partición en 63, como los otros discos. ¡Ayuda! ¿Debo forzarlo?

  • ¿Quitar la segunda unidad RAID6 durante la resynchronization del primer fallo?
  • ¿Cuál es el controlador RAID adecuado para mi servidor Dell?
  • Calculadora de velocidad para juegos Raid
  • Elegir el nivel RAID adecuado para la base de datos PostgresQL
  • Ruta del dispositivo md equivocado después de reiniciar
  • Mdadm - RAIDs de particiones o particiones de RAID?
  • Unidades Flash USB como unidades de arranque en el server de files
  • Intermitente del firmware en un controller RAID 3ware 9650SE
  • One Solution collect form web for “cambiando una unidad defectuosa en una matriz de raid con una nueva … pero WD cambió el tamaño de bloque?”

    Tres opciones:

    • Muerde la bala y remake su MD.

    • Forzar la tabla de particiones y sufrir el impacto de performance

    • Utilice sg_format para cambiar el tamaño del dispositivo un poco más grande de modo que haya espacio suficiente para una partición alineada (si tienes suerte)

    Sospecho que lo harás (2) hasta que encuentres time para hacerlo (1).

    El linux y los temas del servidor de Windows, como ubuntu, centos, apache, nginx, debian y consejos de red.