21 votos

Mejor manera de crecer Linux software RAID 1 y RAID 10

mdadm no parecen apoyar el crecimiento de una matriz desde el nivel 1 hasta el nivel 10.

Tengo dos discos en RAID 1. Quiero añadir dos nuevos discos y convertir la matriz en una de cuatro disco matriz RAID 10.

Mi estrategia actual:

  1. Hacer una buena copia de seguridad.
  2. Crear un degradado de 4 en disco RAID 10 matriz con dos discos que falten.
  3. rsync la matriz RAID 1 con la matriz RAID 10.
  4. fail y remove uno de los discos de la matriz RAID 1.
  5. Agregar el disco disponible para la matriz RAID 10 y esperar de resincronización para completar.
  6. Destruir la matriz RAID 1 y agregar el último disco de la matriz RAID 10.

El problema es la falta de redundancia en el paso 5.

Hay una manera mejor?

8voto

Mark Turner Puntos 1452

Con linux softraid usted puede hacer una matriz RAID 10 con sólo dos discos.

0) de Copia de seguridad, Copia de seguridad, Copia de seguridad, Copia de seguridad ah, y COPIA de seguridad

1) Hacer la nueva matriz:

mdadm -v --create /dev/md1 --level=raid10 --raid-devices=4 /dev/sda1 missing /dev/sdb2 missing

2) Montar el raid 10 y rsync el RAID 1 con la nueva RAID 10. (este es sólo un ejemplo de comando, lea las páginas del manual)

rsync -arHx / /where/ever/you/mounted/the/RAID10

3) No la RAID, agregar el disco a la nueva RAID10

mdadm /dev/md0 --fail /dev/sda2 --remove /dev/sda2

4) Agregar el disco a la RAID10

mdadm /dev/md1 --add /dev/sda2

5) Instalar GRUB en el new Array (Suponiendo que está arrancando de ella). Algunas de Linux de rescate/CD de arranque funciona mejor.

6) Arranque de la nueva matriz. SI ha FUNCIONADO CORRECTAMENTE Destruir la antigua matriz y añadir el resto del disco a la nueva matriz.

mdadm --stop /dev/md0
mdadm /dev/md0 --remove /dev/sdc1
mdadm /dev/md1 --add /dev/sdc1

6voto

user75601 Puntos 51

Acaba de terminar pasando de LVM en dos de los 2 tb de disco mdadm RAID 1 para LVM en un cuatro de disco RAID 10 (dos originales + dos nuevos discos).

Como @aditsu señaló el orden de la unidad es importante a la hora de crear la matriz.

mdadm -v --create /dev/md1 --level=raid10 --raid-devices=4 /dev/sda missing /dev/sdb missing

El código anterior nos da un utilizable matriz con dos discos ausentes (agregar números de partición si no utiliza la totalidad del disco). Tan pronto como el tercer disco se agrega que comenzará a sincronizar. He añadido el cuarto disco antes de la tercera terminado la sincronización. Se mostró como un repuesto hasta el tercer disco terminado, a continuación, se inicia la sincronización.

Pasos para mi situación:

  1. Hacer una buena copia de seguridad.

  2. Crear un degradado de 4 en disco RAID 10 matriz con dos discos ausentes (nos va a llamar a la falta de discos #2 y 4).

  3. Decirle a la esposa no cambiar/agregar cualquier los archivos que se preocupa por

  4. Fallar y quitar un disco de la Matriz RAID 1 (disco 4).

  5. Mover física de las extensiones de la RAID 1 de la matriz a la matriz RAID 10 dejando disco 2 vacío.

  6. Matar el activo de la matriz RAID 1, añadir que ahora vacía de disco (disco 2) a la Matriz RAID 10, y esperar para volver a sincronizar para completar.

  7. Agregar el primer disco quitado de RAID 1 (disco 4) a la matriz RAID 10.

  8. Dar esposa seguir adelante.

En el paso 7 creo unidad 1, 2, O 4 puede fallar (durante la resincronización de disco 4) sin matar a la matriz. Si la unidad 3 falla de los datos en la matriz de pan tostado.

0voto

undefine Puntos 414

Yo lo hice con LVM. Configuración inicial: - sda2, sdb2 y creó la raid1 md1 en la parte superior. sda1 y sdb1 fueron utilizados para el segundo raid1 para la partición /boot. - md1 fue pv en el grupo de volumen de espacio, con algunos de lvm.

He añadido los discos de la cosude y sdd y crear particiones como en sda/sdb.

Así:

  1. creado md10 como:

    mdadm --create /dev/md10 --nivel raid10 --raid-devices=4 /dev/sdc2 falta /dev/sdd2

  2. extender vg:

    pvcreate /dev/md10 vgextend espacio /dev/md10

  3. se trasladó volúmenes de dm1 a md10:

    pvmove-v /dev/md1 /dev/md10

(espere a que se hace) 4. reducir el volumen de grupo:

vgreduce space /dev/md1
pvremove /dev/md1
  1. dejar de matriz md1:

    mdadm-S /dev/md1

  2. añadir discos de edad md1 a md10:

    mdadm-a /dev/md10 /dev/sda2 /dev/sdb2

  3. actualización de la configuración en /etc/mdadm/mdadm.conf:

    mdadm-S-scan >>/dev/mdadm/mdadm.conf

(y eliminar viejas md1)

Todo lo que se hace en el sistema en vivo, con la activa volúmenes utilizados para kvm ;)

-1voto

Kurt Puntos 124

Acabo de migrar mi raid1 a raid10 basado en esta respuesta y redactó una guía paso a paso muy detallada. Para aquellos que estén interesados se puede leer aquí.

EnMiMaquinaFunciona.com

EnMiMaquinaFunciona es una comunidad de administradores de sistemas en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros sysadmin, hacer tus propias preguntas o resolver las de los demás.

Powered by: