Configuración de RAID nivel 6 (creación de bandas con paridad distribuida doble) en Linux - Parte 5


RAID 6 es una versión actualizada de RAID 5, donde tiene dos paridades distribuidas que proporciona tolerancia a fallas incluso después de que fallan dos unidades. El sistema de misión crítica sigue operativo en caso de fallas de dos discos simultáneos. Es similar a RAID 5 , pero proporciona más robustez, porque utiliza un disco más para la paridad.

En nuestro artículo anterior, vimos la paridad distribuida en RAID 5, pero en este artículo veremos RAID 6 con paridad distribuida doble. No espere un rendimiento adicional que cualquier otro RAID, si es así, también tenemos que instalar un controlador RAID dedicado. Aquí en RAID 6 , incluso si perdemos nuestros 2 discos, podemos recuperar los datos reemplazando una unidad de repuesto y construyéndola a partir de la paridad.

Para configurar un RAID 6 , se requiere un mínimo de 4 discos o más en un conjunto. RAID 6 tiene varios discos, incluso en algún conjunto, puede tener algunos discos, mientras lee, leerá de todas las unidades, por lo que la lectura sería más rápida, mientras que la escritura sería deficiente porque tiene que raya en varios discos.

Ahora, muchos de nosotros llegamos a la conclusión de por qué necesitamos usar RAID 6 , cuando no funciona como cualquier otro RAID. Mmmm ... aquellos que plantean esta pregunta deben saber que, si necesitan una alta tolerancia a fallas, elijan RAID 6. En todos los entornos superiores con alta disponibilidad para la base de datos, usan RAID 6 porque la base de datos es la más importante y debe ser seguro a cualquier costo, también puede ser útil para entornos de transmisión de video.

  1. Performance are good.
  2. RAID 6 is expensive, as it requires two independent drives are used for parity functions.
  3. Will loose a two disks capacity for using parity information (double parity).
  4. No data loss, even after two disk fails. We can rebuilt from parity after replacing the failed disk.
  5. Reading will be better than RAID 5, because it reads from multiple disk, But writing performance will be very poor without dedicated RAID Controller.

Se requiere un mínimo de 4 discos para crear un RAID 6. Si desea agregar más discos, puede hacerlo, pero debe tener un controlador raid dedicado. En el software RAID, no obtendremos un mejor rendimiento en RAID 6. Por lo tanto, necesitamos un controlador RAID físico.

Aquellos que son nuevos en la configuración de RAID, recomendamos leer los artículos RAID a continuación.

  1. Basic Concepts of RAID in Linux – Part 1
  2. Creating Software RAID 0 (Stripe) in Linux – Part 2
  3. Setting up RAID 1 (Mirroring) in Linux – Part 3
Operating System :	CentOS 6.5 Final
IP Address	 :	192.168.0.228
Hostname	 :	rd6.tecmintlocal.com
Disk 1 [20GB]	 :	/dev/sdb
Disk 2 [20GB]	 :	/dev/sdc
Disk 3 [20GB]	 :	/dev/sdd
Disk 4 [20GB]	 : 	/dev/sde

Este artículo es una parte 5 de una serie RAID de 9 tutoriales, aquí vamos a ver cómo podemos crear y configurar el software RAID 6 o la creación de bandas con doble paridad distribuida en sistemas o servidores Linux usando cuatro discos de 20GB llamados/dev/sdb,/dev/sdc,/dev/sdd y/dev/sde.

Paso 1: Instalar la herramienta mdadm y examinar las unidades

1. Si está siguiendo nuestros dos últimos artículos de Raid (Parte 2 y Parte 3), donde ya mostramos cómo instalar la herramienta "mdadm". Si es nuevo en este artículo, permítame explicarle que "mdadm" es una herramienta para crear y administrar Raid en sistemas Linux, instalemos la herramienta usando el siguiente comando de acuerdo con su distribución de Linux.

# yum install mdadm		[on RedHat systems]
# apt-get install mdadm 	[on Debain systems]

2. Después de instalar la herramienta, ahora es el momento de verificar las cuatro unidades adjuntas que vamos a utilizar para la creación de raid mediante el siguiente comando "fdisk".

# fdisk -l | grep sd

3. Antes de crear unidades RAID, examine siempre nuestras unidades de disco para ver si ya se ha creado algún RAID en los discos.

# mdadm -E /dev/sd[b-e]
# mdadm --examine /dev/sdb /dev/sdc /dev/sdd /dev/sde

Nota: En la imagen anterior se muestra que no se ha detectado ningún superbloque o no se ha definido ningún RAID en cuatro unidades de disco. Podemos avanzar más para comenzar a crear RAID 6.

Paso 2: Particionamiento de unidades para RAID 6

4. Ahora cree particiones para raid en "/ dev/sdb", "/ dev/sdc", "/ dev/sdd" y "/ dev/sde" con la ayuda del siguiente comando fdisk. Aquí, mostraremos cómo crear una partición en la unidad sdb y luego los mismos pasos que se seguirán para el resto de las unidades.

# fdisk /dev/sdb

Siga las instrucciones que se muestran a continuación para crear la partición.

  1. Press ‘n‘ for creating new partition.
  2. Then choose ‘P‘ for Primary partition.
  3. Next choose the partition number as 1.
  4. Define the default value by just pressing two times Enter key.
  5. Next press ‘P‘ to print the defined partition.
  6. Press ‘L‘ to list all available types.
  7. Type ‘t‘ to choose the partitions.
  8. Choose ‘fd‘ for Linux raid auto and press Enter to apply.
  9. Then again use ‘P‘ to print the changes what we have made.
  10. Use ‘w‘ to write the changes.
# fdisk /dev/sdc
# fdisk /dev/sdd
# fdisk /dev/sde

5. Después de crear particiones, siempre es una buena costumbre examinar las unidades en busca de superbloques. Si los superbloques no existen, podemos ir a crear una nueva configuración RAID.

# mdadm -E /dev/sd[b-e]1


or

# mdadm --examine /dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1

Paso 3: creación de un dispositivo md (RAID)

6. Ahora es el momento de crear el dispositivo Raid "md0" (es decir,/dev/md0) y aplicar el nivel de incursión en todas las particiones recién creadas y confirmar la incursión con los siguientes comandos.

# mdadm --create /dev/md0 --level=6 --raid-devices=4 /dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1
# cat /proc/mdstat

7. También puede verificar el proceso actual de incursión usando el comando watch como se muestra en la captura de pantalla a continuación.

# watch -n1 cat /proc/mdstat

8. Verifique los dispositivos raid usando el siguiente comando.

# mdadm -E /dev/sd[b-e]1

Nota: El comando anterior mostrará la información de los cuatro discos, que es bastante larga, por lo que no es posible publicar la salida o la captura de pantalla aquí.

9. A continuación, verifique la matriz RAID para confirmar que se inició la resincronización.

# mdadm --detail /dev/md0

Paso 4: Creación de un sistema de archivos en un dispositivo Raid

10. Cree un sistema de archivos usando ext4 para "/ dev/md0" y móntelo en /mnt/raid6 . Aquí hemos usado ext4, pero puede usar cualquier tipo de sistema de archivos según su elección.

# mkfs.ext4 /dev/md0

11. Monte el sistema de archivos creado en /mnt/raid6 y verifique los archivos en el punto de montaje, podemos ver el directorio perdido + encontrado.

# mkdir /mnt/raid6
# mount /dev/md0 /mnt/raid6/
# ls -l /mnt/raid6/

12. Cree algunos archivos bajo el punto de montaje y agregue texto en cualquiera de los archivos para verificar el contenido.

# touch /mnt/raid6/raid6_test.txt
# ls -l /mnt/raid6/
# echo "tecmint raid setups" > /mnt/raid6/raid6_test.txt
# cat /mnt/raid6/raid6_test.txt

13. Agregue una entrada en /etc/fstab para montar automáticamente el dispositivo en el inicio del sistema y agregue la entrada siguiente, el punto de montaje puede diferir según su entorno.

# vim /etc/fstab

/dev/md0                /mnt/raid6              ext4    defaults        0 0

14. A continuación, ejecute el comando "mount -a" para verificar si hay algún error en la entrada de fstab.

# mount -av

Paso 5: guarde la configuración de RAID 6

15. Tenga en cuenta que por defecto RAID no tiene un archivo de configuración. Tenemos que guardarlo manualmente usando el siguiente comando y luego verificar el estado del dispositivo "/ dev/md0".

# mdadm --detail --scan --verbose >> /etc/mdadm.conf
# mdadm --detail /dev/md0

Paso 6: Agregar unidades de repuesto

16. Ahora tiene 4 discos y hay dos datos de paridad disponibles. En algunos casos, si falla alguno de los discos podemos obtener los datos, porque hay doble paridad en RAID 6.

Puede ser que si el segundo disco falla, podemos agregar uno nuevo antes de perder el tercer disco. Es posible agregar una unidad de repuesto al crear nuestro conjunto RAID, pero no he definido la unidad de repuesto al crear nuestro conjunto de incursiones. Pero podemos agregar una unidad de repuesto después de cualquier falla de la unidad o mientras creamos el conjunto RAID. Ahora que ya hemos creado el conjunto RAID, permítame agregar una unidad de repuesto para la demostración.

Para fines de demostración, conecté en caliente un nuevo disco HDD (es decir,/dev/sdf), verifiquemos el disco adjunto.

# ls -l /dev/ | grep sd

17. Ahora confirme nuevamente que el nuevo disco adjunto para cualquier raid ya está configurado o no está usando el mismo comando mdadm.

# mdadm --examine /dev/sdf

Nota: Como de costumbre, como antes hemos creado particiones para cuatro discos, de manera similar tenemos que crear una nueva partición en el nuevo disco conectado usando el comando fdisk.

# fdisk /dev/sdf

18. De nuevo, después de crear una nueva partición en/dev/sdf, confirme la incursión en la partición, incluya la unidad de repuesto en el dispositivo raid/dev/md0 y verifique el dispositivo agregado.

# mdadm --examine /dev/sdf
# mdadm --examine /dev/sdf1
# mdadm --add /dev/md0 /dev/sdf1
# mdadm --detail /dev/md0

Paso 7: Verifique la tolerancia a fallas de Raid 6

19. Ahora, verifiquemos si la unidad de repuesto funciona automáticamente, si alguno de los discos falla en nuestra matriz. Para la prueba, personalmente he marcado que una de las unidades está fallada.

Aquí, vamos a marcar /dev/sdd1 como unidad fallida.

# mdadm --manage --fail /dev/md0 /dev/sdd1

20. Permítanme obtener los detalles del conjunto RAID ahora y verificar si nuestro repuesto comenzó a sincronizarse.

# mdadm --detail /dev/md0

¡Viva! Aquí, podemos ver que el repuesto se activó y comenzó el proceso de reconstrucción. En la parte inferior podemos ver la unidad defectuosa /dev/sdd1 listada como defectuosa. Podemos monitorear el proceso de construcción usando el siguiente comando.

# cat /proc/mdstat

Conclusión:

Aquí, hemos visto cómo configurar RAID 6 usando cuatro discos. Este nivel de RAID es una de las configuraciones costosas con alta redundancia. Veremos cómo configurar un RAID 10 anidado y mucho más en los próximos artículos. Hasta entonces, manténgase conectado con TECMINT.