Configuración de RAID nivel 6 (creación de bandas con paridad distribuida doble) en Linux - Parte 5


RAID 6 es una versión mejorada de RAID 5, donde tiene dos paridad distribuida que proporciona tolerancia a fallas incluso después de que fallan dos unidades. El sistema de misión crítica sigue funcionando en caso de fallas de dos discos simultáneos. Es similar a RAID 5 , pero es más robusto porque usa un disco más para la paridad.

En nuestro artículo anterior, vimos la paridad distribuida en RAID 5, pero en este artículo veremos RAID 6 con paridad distribuida doble. No espere un rendimiento adicional que cualquier otro RAID, si es así, también tenemos que instalar un controlador RAID dedicado. Aquí, en RAID 6 , incluso si perdemos nuestros 2 discos, podemos recuperar los datos reemplazando una unidad de repuesto y construyéndola a partir de la paridad.

Para configurar un RAID 6 , se requiere un mínimo de 4 discos o más en un conjunto. RAID 6 tiene varios discos, incluso en algún conjunto, puede tener algunos discos, mientras lee, leerá de todas las unidades, por lo que la lectura sería más rápida, mientras que la escritura sería deficiente porque tiene que raya en varios discos.

Ahora, muchos de nosotros llegamos a la conclusión de por qué necesitamos usar RAID 6 , cuando no funciona como cualquier otro RAID. Mmmm ... aquellos que plantean esta pregunta deben saber que, si necesitan una alta tolerancia a fallas, elijan RAID 6. En todos los entornos superiores con alta disponibilidad para la base de datos, usan RAID 6 porque la base de datos es la más importante y debe ser seguro a cualquier costo, también puede ser útil para entornos de transmisión de video.

  1. El rendimiento es bueno.
  2. RAID 6 es caro, ya que requiere que se utilicen dos unidades independientes para las funciones de paridad.
  3. Perderá una capacidad de dos discos para usar información de paridad (paridad doble).
  4. Sin pérdida de datos, incluso después de que fallan dos discos. Podemos reconstruir desde la paridad después de reemplazar el disco fallido.
  5. La lectura será mejor que RAID 5, porque lee desde varios discos, pero el rendimiento de escritura será muy pobre sin un controlador RAID dedicado.

Se requiere un mínimo de 4 discos para crear un RAID 6. Si desea agregar más discos, puede hacerlo, pero debe tener un controlador de incursión dedicado. En el software RAID, no obtendremos un mejor rendimiento en RAID 6. Por lo tanto, necesitamos un controlador RAID físico.

Aquellos que son nuevos en la configuración de RAID, recomendamos leer los artículos de RAID a continuación.

  1. Conceptos básicos de RAID en Linux - Parte 1
  2. Creación de software RAID 0 (Stripe) en Linux - Parte 2
  3. Configuración de RAID 1 (duplicación) en Linux - Parte 3

Operating System :	CentOS 6.5 Final
IP Address	 :	192.168.0.228
Hostname	 :	rd6.tecmintlocal.com
Disk 1 [20GB]	 :	/dev/sdb
Disk 2 [20GB]	 :	/dev/sdc
Disk 3 [20GB]	 :	/dev/sdd
Disk 4 [20GB]	 : 	/dev/sde

Este artículo es una parte 5 de una serie RAID de 9 tutoriales, aquí vamos a ver cómo podemos crear y configurar el software RAID 6 o la creación de bandas con paridad distribuida doble en sistemas o servidores Linux utilizando cuatro discos de 20 GB llamados/dev/sdb,/dev/sdc,/dev/sdd y/dev/sde.

Paso 1: instalar la herramienta mdadm y examinar las unidades

1. Si está siguiendo nuestros dos últimos artículos de Raid (Parte 2 y Parte 3), donde ya mostramos cómo instalar la herramienta "mdadm". Si es nuevo en este artículo, permítame explicarle que "mdadm" es una herramienta para crear y administrar Raid en sistemas Linux, instalemos la herramienta usando el siguiente comando de acuerdo con su distribución de Linux.

# yum install mdadm		[on RedHat systems]
# apt-get install mdadm 	[on Debain systems]

2. Después de instalar la herramienta, ahora es el momento de verificar las cuatro unidades adjuntas que vamos a utilizar para la creación de raid mediante el siguiente comando "fdisk".

# fdisk -l | grep sd

3. Antes de crear unidades RAID, examine siempre nuestras unidades de disco para ver si ya se ha creado algún RAID en los discos.

# mdadm -E /dev/sd[b-e]
# mdadm --examine /dev/sdb /dev/sdc /dev/sdd /dev/sde

Nota: En la imagen de arriba se muestra que no se ha detectado ningún superbloque o no se ha definido ningún RAID en cuatro unidades de disco. Podemos avanzar más para comenzar a crear RAID 6.

Paso 2: Partición de unidades para RAID 6

4. Ahora cree particiones para raid en "/ dev/sdb", "/ dev/sdc", "/ dev/sdd" y "/ dev/sde" con la ayuda del siguiente comando fdisk. Aquí, mostraremos cómo crear una partición en la unidad sdb y luego los mismos pasos que se seguirán para el resto de las unidades.

# fdisk /dev/sdb

Siga las instrucciones que se muestran a continuación para crear la partición.

  1. Presione "n" para crear una nueva partición.
  2. Luego, elija "P" para la partición primaria.
  3. A continuación, elija el número de partición como 1.
  4. Defina el valor predeterminado con solo presionar dos veces la tecla Intro.
  5. Luego presione "P" para imprimir la partición definida.
  6. Presione "L" para enumerar todos los tipos disponibles.
  7. Escriba "t" para elegir las particiones.
  8. Elija "fd" para Linux raid auto y presione Entrar para aplicar.
  9. Luego, use nuevamente "P" para imprimir los cambios que hicimos.
  10. Utilice "w" para escribir los cambios.

# fdisk /dev/sdc
# fdisk /dev/sdd
# fdisk /dev/sde

5. Después de crear particiones, siempre es una buena costumbre examinar las unidades en busca de superbloques. Si los superbloques no existen, podemos ir a la cabeza para crear una nueva configuración RAID.

# mdadm -E /dev/sd[b-e]1


or

# mdadm --examine /dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1

Paso 3: creación de un dispositivo md (RAID)

6. Ahora es el momento de crear el dispositivo de incursión "md0" (es decir,/dev/md0) y aplicar el nivel de incursión en todas las particiones recién creadas y confirmar la incursión con los siguientes comandos.

# mdadm --create /dev/md0 --level=6 --raid-devices=4 /dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1
# cat /proc/mdstat

7. También puede verificar el proceso actual de incursión usando el comando watch como se muestra en la captura de pantalla a continuación.

# watch -n1 cat /proc/mdstat

8. Verifique los dispositivos raid usando el siguiente comando.

# mdadm -E /dev/sd[b-e]1

Nota: El comando anterior mostrará la información de los cuatro discos, que es bastante larga, por lo que no es posible publicar la salida o la captura de pantalla aquí.

9. A continuación, verifique la matriz RAID para confirmar que se inició la resincronización.

# mdadm --detail /dev/md0

Paso 4: Creación de un sistema de archivos en un dispositivo Raid

10. Cree un sistema de archivos usando ext4 para "/ dev/md0" y móntelo en /mnt/raid6 . Aquí hemos usado ext4, pero puede usar cualquier tipo de sistema de archivos según su elección.

# mkfs.ext4 /dev/md0

11. Monte el sistema de archivos creado en /mnt/raid6 y verifique los archivos en el punto de montaje, podemos ver el directorio perdido + encontrado.

# mkdir /mnt/raid6
# mount /dev/md0 /mnt/raid6/
# ls -l /mnt/raid6/

12. Cree algunos archivos en el punto de montaje y agregue texto en cualquiera de los archivos para verificar el contenido.

# touch /mnt/raid6/raid6_test.txt
# ls -l /mnt/raid6/
# echo "tecmint raid setups" > /mnt/raid6/raid6_test.txt
# cat /mnt/raid6/raid6_test.txt

13. Agregue una entrada en /etc/fstab para montar automáticamente el dispositivo al inicio del sistema y agregue la siguiente entrada, el punto de montaje puede diferir según su entorno.

# vim /etc/fstab

/dev/md0                /mnt/raid6              ext4    defaults        0 0

14. A continuación, ejecute el comando "mount -a" para verificar si hay algún error en la entrada de fstab.

# mount -av

Paso 5: guarde la configuración de RAID 6

15. Tenga en cuenta que, de forma predeterminada, RAID no tiene un archivo de configuración. Tenemos que guardarlo manualmente usando el siguiente comando y luego verificar el estado del dispositivo "/ dev/md0".

# mdadm --detail --scan --verbose >> /etc/mdadm.conf
# mdadm --detail /dev/md0

Paso 6: Agregar unidades de repuesto

16. Ahora tiene 4 discos y hay dos datos de paridad disponibles. En algunos casos, si alguno de los discos falla, podemos obtener los datos, porque hay doble paridad en RAID 6.

Puede ser que si el segundo disco falla, podemos agregar uno nuevo antes de perder el tercer disco. Es posible agregar una unidad de repuesto al crear nuestro conjunto RAID, pero no he definido la unidad de repuesto al crear nuestro conjunto de incursiones. Pero podemos agregar una unidad de repuesto después de cualquier falla de la unidad o mientras creamos el conjunto RAID. Ahora que ya hemos creado el conjunto RAID, permítanme agregar una unidad de repuesto para la demostración.

Para fines de demostración, conecté en caliente un nuevo disco HDD (es decir,/dev/sdf), verifiquemos el disco adjunto.

# ls -l /dev/ | grep sd

17. Ahora confirme nuevamente que el nuevo disco adjunto para cualquier raid ya está configurado o no está usando el mismo comando mdadm.

# mdadm --examine /dev/sdf

Nota: Como de costumbre, como antes hemos creado particiones para cuatro discos, de manera similar tenemos que crear una nueva partición en el nuevo disco conectado usando el comando fdisk.

# fdisk /dev/sdf

18. Una vez más, después de crear una nueva partición en/dev/sdf, confirme la incursión en la partición, incluya la unidad de repuesto en el dispositivo de incursión/dev/md0 y verifique el dispositivo agregado.

# mdadm --examine /dev/sdf
# mdadm --examine /dev/sdf1
# mdadm --add /dev/md0 /dev/sdf1
# mdadm --detail /dev/md0

Paso 7: Verifique la tolerancia a fallas de Raid 6

19. Ahora, verifiquemos si la unidad de repuesto funciona automáticamente, si alguno de los discos falla en nuestro Array. Para la prueba, he marcado personalmente que una de las unidades está fallada.

Aquí, vamos a marcar /dev/sdd1 como unidad fallida.

# mdadm --manage --fail /dev/md0 /dev/sdd1

20. Permítame obtener los detalles del conjunto RAID ahora y verificar si nuestro repuesto comenzó a sincronizarse.

# mdadm --detail /dev/md0

¡Viva! Aquí, podemos ver que el repuesto se activó y comenzó el proceso de reconstrucción. En la parte inferior podemos ver la unidad defectuosa /dev/sdd1 listada como defectuosa. Podemos monitorear el proceso de construcción usando el siguiente comando.

# cat /proc/mdstat

Conclusión:

Aquí, hemos visto cómo configurar RAID 6 usando cuatro discos. Este nivel de RAID es una de las configuraciones costosas con alta redundancia. Veremos cómo configurar un RAID 10 anidado y mucho más en los próximos artículos. Hasta entonces, manténgase conectado con TECMINT.