Vous êtes sur la page 1sur 9

Arreglos RAID

Detalles Imprimir Etiquetas: arreglosraid

Table of Contents [-]


1 Sobre los arreglos RAID 1.1 Implementaciones RAID y 2 Tipos de configuracin de arreglos RAID y 2.1 RAID 0 y 2.2 RAID 1 y 2.3 RAID 5 y 3 Instalacin y Configuracin de RAID y 3.1 Instalacin de paquetes y 3.2 Instalacin y configuracin del RAID y 3.3 Montaje del RAID y 3.4 Modificando el boteo de Linux y 3.5 Comprobacin final del RAID

Sobre los arreglos RAID#


En informtica, el acrnimo RAID (originalmente del ingls RedundantArray of Inexpensive Disks, conjunto redundante de discos baratos, en la actualidad tambin de RedundantArray of Independent Disks, conjunto redundante de discos independientes) hace referencia a un sistema de almacenamiento que usa mltiples discos duros entre los que distribuye o replica los datos. Dependiendo de su configuracin (a la que suele llamarse nivel), los beneficios de un RAID respecto a un nico disco son uno o varios de los siguientes: y Mayor integridad y Mayor tolerancia a fallos y Mayor throughput rendimiento y Mayor capacidad. En sus implementaciones originales, su ventaja clave era la habilidad de combinar varios dispositivos de bajo coste y tecnologa ms antigua en un conjunto que ofreca mayor capacidad, fiabilidad, velocidad o una combinacin de stas que un solo dispositivo de ltima generacin y coste ms alto. En el nivel ms simple, un RAID combina varios discos duros en una sola unidad lgica. As, en lugar de ver varios discos duros diferentes, el sistema operativo ve uno solo. Los RAID suelen usarse en servidores y normalmente (aunque no es necesario) se implementan con unidades de disco de la misma capacidad. Debido al decremento en el precio de los discos duros y la mayor disponibilidad de las opciones RAID incluidas en los chipsets de las placas base, los RAID se encuentran tambin como opcin en los ordenadores personales ms avanzados. Esto es especialmente frecuente en los computadores dedicados a tareas intensivas de almacenamiento, como edicin de audio y vdeo. La especificacin RAID original sugera cierto nmero de niveles RAID o combinaciones diferentes de discos. Cada una tena ventajas y desventajas tericas. Con el paso de los aos, han aparecido diferentes implementaciones del concepto RAID. La mayora difieren sustancialmente de los niveles RAID idealizados originalmente, pero se ha conservado la costumbre de llamarlas con nmeros. Esto puede resultar confuso, dado que una implementacin RAID 5, por ejemplo, puede diferir sustancialmente de otra. Los niveles RAID 3 y RAID 4 son confundidos con frecuencia e incluso usados indistintamente. La misma definicin de RAID ha estado en disputa durante aos. El uso de trmino redundante hace que muchos objeten sobre que el RAID 0 sea realmente un RAID. De igual forma, el cambio de barato a independiente confunde a muchos sobre el pretendido propsito del RAID. Incluso hay algunas implementaciones del concepto RAID que usan un solo disco. Pero en general, diremos que cualquier sistema que emplee los conceptos RAID bsicos de combinar espacio fsico en disco para los fines de mejorar la fiabilidad, capacidad o rendimiento es un sistema RAID.

Implementaciones RAID#
La distribucin de datos en varios discos puede ser gestionada por hardware dedicado o por software. Adems, existen sistemas RAID hbridos basados en software y hardware especfico. Con la implementacin por software, el sistema operativo gestiona los discos del conjunto a travs de una controladora de disco normal (IDE/ATA, Serial ATA, SCSI, SAS o FibreChannel). Considerada tradicionalmente una solucin ms lenta, con el rendimiento de las

CPUsmodernas puede llegar a ser ms rpida que algunas implementaciones hardware, a expensas de dejar menos tiempo de proceso al resto de tareas del sistema. Una implementacin de RAID basada en hardware requiere al menos una controladora RAID especfica, ya sea como una tarjeta de expansin independiente o integrada en la placa base, que gestione la administracin de los discos y efecte los clculos de paridad (necesarios para algunos niveles RAID). Esta opcin suele ofrecer un mejor rendimiento y hace que el soporte por parte del sistema operativo sea ms sencillo (de hecho, puede ser totalmente transparente para ste). Las implementaciones basadas en hardware suelen soportar sustitucin en caliente (hotswapping), permitiendo que los discos que fallen puedan reemplazarse sin necesidad de detener el sistema. En los RAID mayores, la controladora y los discos suelen montarse en una caja externa especfica, que a su vez se conecta al sistema principal mediante una o varias conexiones SCSI, FibreChannel o iSCSI. A veces el sistema RAID es totalmente autnomo, conectndose al resto del sistema como un NAS. Los RAID hbridos se han hecho muy populares con la introduccin de controladoras RAID hardware baratas. En realidad, el hardware es una controladora de disco normal sin caractersticas RAID, pero el sistema incorpora una aplicacin de bajo nivel que permite a los usuarios construir RAID controlados por la BIOS. Ser necesario usar un controlador de dispositivo especfico para que el sistema operativo reconozca la controladora como un nico dispositivo RAID. Estos sistemas efectan en realidad todos los clculos por software (es decir, los realiza la CPU), con la consiguiente prdida de rendimiento, y tpicamente estn restringidos a una nica controladora de disco. Una importante caracterstica de los sistemas RAID por hardware es que pueden incorporar un cach de escritura no voltil (con alimentacin de respaldo por batera) que permite aumentar el rendimiento del conjunto de discos sin comprometer la integridad de los datos en caso de fallo del sistema. Esta caracterstica no est obviamente disponible en los sistemas RAID por software, que suelen presentar por tanto el problema de reconstruir el conjunto de discos cuando el sistema es reiniciado tras un fallo para asegurar la integridad de los datos. Por el contrario, los sistemas basados en software son mucho ms flexibles (permitiendo, por ejemplo, construir RAID de particiones en lugar de discos completos y agrupar en un mismo RAID discos conectados en varias controladoras) y los basados en hardware aaden un punto de fallo ms al sistema (la controladora RAID). Todas las implementaciones pueden soportar el uso de uno o ms discos de reserva (hotspare), unidades pre-instaladas que pueden usarse inmediatamente (y casi siempre automticamente) tras el fallo de un disco del RAID. Esto reduce el tiempo del perodo de reparacin al acortar el tiempo de reconstruccin del RAID.

Tipos de configuracin de arreglos RAID#


Los niveles RAID ms comnmente usados son: y RAID 0: Conjunto dividido y RAID 1: Conjunto en espejo y RAID 5: Conjunto dividido con paridad distribuida

RAID 0#
Un RAID 0 (tambin llamado conjunto dividido o volumen dividido), distribuye los datos equitativamente entre dos o ms discos sin informacin de paridad que proporcione redundancia. Es importante sealar que el RAID 0 no era uno de los niveles RAID originales y que no es redundante. El RAID 0 se usa normalmente para incrementar el rendimiento, aunque tambin puede utilizarse como forma de crear un pequeo nmero de grandes discos virtuales a partir de un gran nmero de pequeos discos fsicos. Un RAID 0 puede ser creado con discos de diferentes tamaos, pero el espacio de almacenamiento aadido al conjunto estar limitado al tamao del disco ms pequeo (por ejemplo, si un disco de 300 GB se divide con uno de 100 GB, el tamao del conjunto resultante ser 200 GB). Una buena implementacin de un RAID 0 dividir las operaciones de lectura y escritura en bloques de igual tamao y los distribuir equitativamente entre los dos discos. Tambin es posible crear un RAID 0 con ms de un disco, si bien la fiabilidad del conjunto ser igual a la fiabilidad media de cada disco entre el nmero de discos del conjunto; es decir, la fiabilidad total medida como MTTF o MTBF es (aproximadamente) inversamente proporcional al nmero de discos del conjunto. Esto se debe a que el sistema de ficheros se distribuye entre todos los discos sin redundancia, por lo que cuando uno de ellos falla se pierde una parte muy importante de los datos. Con un RAID 0, si todos los sectores accedidos estn en el mismo disco, entonces el tiempo de bsqueda ser el de dicho disco. Si los sectores a acceder estn distribuidos equitativamente entre los discos, entonces el tiempo de bsqueda aparente estar entre el ms rpido y el ms lento de los discos del conjunto, pues todos los discos necesitan acceder a su parte de los datos antes de que la operacin pueda completarse. Esto podra llevar a tiempos de bsqueda cercanos al peor escenario para un nico disco, salvo si los discos giran sincronizadamente, lo que dara tiempos de bsqueda slo ligeramente superiores al de un nico disco. La velocidad de transferencia del conjunto ser la suma de la de todos los discos, limitada slo por la velocidad de la controladora RAID.

El RAID 0 es til para configuraciones tales como servidores NFS de solo lectura en las que montar muchos discos es un proceso costoso en tiempo y la redundancia es irrelevante. Otro uso es cuando el nmero de discos est limitado por el sistema operativo: por ejemplo, en Microsoft Windows el nmero de unidades lgicas (letras) est limitado a 24, por lo que el RAID 0 es una forma de usar ms discos (en Windows 2000 Professional y posteriores es posible montar particiones en directorios, de forma parecida a Unix, eliminando as la necesidad de asignar una letra a cada unidad). El RAID 0 es tambin una opcin popular para sistemas destinados a juegos en los que se desea un buen rendimiento y la integridad no es muy importante, si bien el coste es una preocupacin para la mayora de los usuarios.

RAID 1#
Un RAID 1 crea una copia exacta (o espejo) de un conjunto de datos en dos o ms discos. Esto resulta til cuando el rendimiento en lectura es ms importante que la capacidad. Un conjunto RAID 1 slo puede ser tan grande como el ms pequeo de sus discos. Un RAID 1 clsico consiste en dos discos en espejo, lo que incrementa exponencialmente la fiabilidad respecto a un solo disco; es decir, la probabilidad de fallo del conjunto es igual al producto de las probabilidades de fallo de cada uno de los discos (pues para que el conjunto falle es necesario que lo hagan todos sus discos). Adicionalmente, dado que todos los datos estn en dos o ms discos, con hardware habitualmente independiente, el rendimiento de lectura se incrementa aproximadamente como mltiplo lineal del nmero del copias; es decir, un RAID 1 puede estar leyendo simultneamente dos datos diferentes en dos discos diferentes, por lo que su rendimiento se duplica. Para maximizar los beneficios sobre el rendimiento del RAID 1 se recomienda el uso de controladoras de disco independientes, una para cada disco (prctica que algunos denominan splitting o duplexing). Como en el RAID 0, el tiempo medio de lectura se reduce, ya que los sectores a buscar pueden dividirse entre los discos, bajando el tiempo de bsqueda y subiendo la tasa de transferencia, con el nico lmite de la velocidad soportada por la controladora RAID. Sin embargo, muchas tarjetas RAID 1 IDE antiguas leen slo de un disco de la pareja, por lo que su rendimiento es igual al de un nico disco. Algunas implementaciones RAID 1 antiguas tambin leen de ambos discos simultneamente y comparan los datos para detectar errores. La deteccin y correccin de errores en los discos duros modernos hacen esta prctica poco til. Al escribir, el conjunto se comporta como un nico disco, dado que los datos deben ser escritos en todos los discos del RAID 1. Por tanto, el rendimiento no mejora. El RAID 1 tiene muchas ventajas de administracin. Por ejemplo, en algunos entornos 24/7, es posible dividir el espejo: marcar un disco como inactivo, hacer una copia de seguridad de dicho disco y luego reconstruir el espejo. Esto requiere que la aplicacin de gestin del conjunto soporte la recuperacin de los datos del disco en el momento de la divisin. Este procedimiento es menos crtico que la presencia de una caracterstica de snapshot en algunos sistemas de ficheros, en la que se reserva algn espacio para los cambios, presentando una vista esttica en un punto temporal dado del sistema de ficheros. Alternativamente, un conjunto de discos puede ser almacenado de forma parecida a como se hace con las tradicionales cintas.

RAID 5#
Un RAID 5 usa divisin de datos a nivel de bloques distribuyendo la informacin de paridad entre todos los discos miembros del conjunto. El RAID 5 ha logrado popularidad gracias a su bajo coste de redundancia. Generalmente, el RAID 5 se implementa con soporte hardware para el clculo de la paridad. Cada vez que un bloque de datos se escribe en un RAID 5, se genera un bloque de paridad dentro de la misma divisin (stripe). Un bloque se compone a menudo de muchos sectores consecutivos de disco. Una serie de bloques (un bloque de cada uno de los discos del conjunto) recibe el nombre colectivo de divisin (stripe). Si otro bloque, o alguna porcin de un bloque, es escrita en esa misma divisin, el bloque de paridad (o una parte del mismo) es recalculada y vuelta a escribir. El disco utilizado por el bloque de paridad est escalonado de una divisin a la siguiente, de ah el trmino bloques de paridad distribuidos. Las escrituras en un RAID 5 son costosas en trminos de operaciones de disco y trfico entre los discos y la controladora. Los bloques de paridad no se leen en las operaciones de lectura de datos, ya que esto sera una sobrecarga innecesaria y disminuira el rendimiento. Sin embargo, los bloques de paridad se leen cuando la lectura de un sector de datos provoca un error de CRC. En este caso, el sector en la misma posicin relativa dentro de cada uno de los bloques de datos restantes en la divisin y dentro del bloque de paridad en la divisin se utilizan para reconstruir el sector errneo. El error CRC se oculta as al resto del sistema. De la misma forma, si falla un disco del conjunto, los bloques de paridad de los restantes discos son combinados matemticamente con los bloques de datos de los restantes discos para reconstruir los datos del disco que ha fallado al vuelo. Lo anterior se denomina a veces Modo Interino de Recuperacin de Datos (Interim Data RecoveryMode). El sistema sabe que un disco ha fallado, pero slo con el fin de que el sistema operativo pueda notificar al administrador que una unidad necesita ser reemplazada: las aplicaciones en ejecucin siguen funcionando ajenas al fallo. Las lecturas y escrituras continan normalmente en el conjunto de discos, aunque con alguna degradacin de rendimiento. La diferencia entre el RAID 4 y el RAID 5 es que, en el Modo Interno de Recuperacin de Datos, el RAID 5 puede ser ligeramente ms rpido, debido a que, cuando el CRC y la paridad estn en el disco que fall, los clculos no tienen que realizarse, mientras que en el RAID 4, si uno de los discos de datos falla, los clculos tienen que ser realizados en cada acceso.

El RAID 5 requiere al menos tres unidades de disco para ser implementado. El fallo de un segundo disco provoca la prdida completa de los datos. El nmero mximo de discos en un grupo de redundancia RAID 5 es tericamente ilimitado, pero en la prctica es comn limitar el nmero de unidades. Los inconvenientes de usar grupos de redundancia mayores son una mayor probabilidad de fallo simultneo de dos discos, un mayor tiempo de reconstruccin y una mayor probabilidad de hallar un sector irrecuperable durante una reconstruccin. A medida que el nmero de discos en un conjunto RAID 5 crece, el MTBF (tiempo medio entre fallos) puede ser ms bajo que el de un nico disco. Esto sucede cuando la probabilidad de que falle un segundo disco en los N-1 discos restantes de un conjunto en el que ha fallado un disco en el tiempo necesario para detectar, reemplazar y recrear dicho disco es mayor que la probabilidad de fallo de un nico disco. Una alternativa que proporciona una proteccin de paridad dual, permitiendo as mayor nmero de discos por grupo, es el RAID 6. Las implementaciones RAID 5 presentan un rendimiento malo cuando se someten a cargas de trabajo que incluyen muchas escrituras ms pequeas que el tamao de una divisin (stripe). Esto se debe a que la paridad debe ser actualizada para cada escritura, lo que exige realizar secuencias de lectura, modificacin y escritura tanto para el bloque de datos como para el de paridad. Implementaciones ms complejas incluyen a menudo cachs de escritura no voltiles para reducir este problema de rendimiento. En el caso de un fallo del sistema cuando hay escrituras activas, la paridad de una divisin (stripe) puede quedar en un estado inconsistente con los datos. Si esto no se detecta y repara antes de que un disco o bloque falle, pueden perderse datos debido a que se usar una paridad incorrecta para reconstruir el bloque perdido en dicha divisin. Esta potencial vulnerabilidad se conoce a veces como agujero de escritura. Son comunes el uso de cach no voltiles y otras tcnicas para reducir la probabilidad de ocurrencia de esta vulnerabilidad.

Instalacin y Configuracin de RAID#


En este manual vamos a explicar como configurar un RAID a nivel software sobre CentOS. Para ello partiremos de dos discos duros hipotticos los cuales tendrn la siguiente disposicin. RAID 1 que nos permitir mantener los datos mas crticos en dos particiones en espejo, en el caso de fallar uno de los discos no perderamos datos.

Instalacin de paquetes#
Los paquetes necesarios para implementar un RAID en conjuncin con un LVM sern los siguientes: y mdadm Para instalarlos teclee en una terminal de BASH lo siguiente:

[BASH]# yuminstallmdadm

Instalacin y configuracin del RAID#


El principal requisito para implementar un RAID sera disponer de dos discos duros de la misma capacidad. Estos discos duros debern tener asignadas las siguientes particiones: El disco duro numero 1 contendr dos particiones y sda1 sera para la / y sda2 sera para la SWAP El disco duro numero 2 deber contener igualmente dos particiones sdb1 del mismo tamao que sda1 sdb2 del mismo tamao que sda2 Estas particiones pueden ser creadas con la ayuda de fdisk, comando del cual hemos hablado extensamente en capitulos anteriores. Una vez creadas las particiones solo restara asignar el identificador correspondiente a particiones tipo RAID, para hacerlo haga lo siguiente: Abra una terminal y teclee:

y y

[BASH]# fdisk /dev/[h|s] d [a|b|c]


Donde :

h La letra 'h' hace referencia a un disco duro PATA. Eje: hd s La letra 's' hace referencia a un disco duro SATA. Eje: sd a La letra 'a' hace referencia al primer disco duro del equipo b La letra 'b' hace referencia al segundo disco duro del equipo c La letra 'c' hace referencia al tercer disco duro del equipo

En nuestro caso, contamos con un solo disco duro PATA en el equipo, por lo que ejecutaremos fdisk de la siguiente manera:[BASH]# fdisk /dev/hdb Una vez que la aplicacin esta iniciada, se nos presenta el siguiente mensaje:

Command (m forhelp):
Si usted presiona la tecla 'm' se imprimir el men con las herramientas propias del comando fdisk. Estas herramientas son:

a Conmuta el indicador de iniciable b Modifica la etiqueta de disco bsd c Conmuta el indicador de compatibilidad con DOS d Suprime una particin l Lista los tipos de particiones conocidos m Imprime este men n Aade una nueva particin o Crea una nueva tabla de particiones DOS vaca p Imprime la tabla de particiones q Sale sin guardar los cambios s Crea una nueva etiqueta de disco Sun t Cambia el identificador de sistema de una particin u Cambia las unidades de visualizacin/entrada v Verifica la tabla de particiones w Escribe la tabla en el disco y sale x Funciones adicionales (slo para usuarios avanzados)
Como podemos notar, con la opcin "m" podemos imprimir nuevamente este men. Seleccione del men, la opcin Cambiar el identificador de sistema de una particin, para ello teclee la letra 't' , esto nos mostrara la distribucin actual de nuestras particiones en nuestro disco duro. Fdisk, nos preguntara a que particin queremos cambiar el ID, estas particiones sern: sdb1 sdb2 Como no conocemos el cdigo hexadecimal para las particiones RAID lanzamos la ayuda para poder visualizar todos los cdigos hexadecimales disponibles, para ello teclee la letra 'L' y localiza el cdigo hexadecimal para las particiones RAID. El cdigo hexadecimal para las particiones RAID es el siguiente:

y y

fd Linux raid auto


Una vez localizado el cdigo hexadecimal, solo restara teclearlo. Para guardar los cambios al disco teclee la letra 'w' El siguiente paso sera asignar y crear el RAID. En una terminal de BASH teclee lo siguiente:

[BASH]# mdadm --create /dev/md0 --level=1 --raid-disks=2 missing /dev/sdb1 [BASH]# mdadm --create /dev/md1 --level=1 --raid-disks=2 missing /dev/sdb2
En donde:

create /dev/md0 Sera el nombre del RAID que estamos creando Le indicamos que tipo de RAID estamos creando, en este caso RAID1 level=1 El numero de dispositivos que forman el RAID raid-disks=2 /dev/sda /dev/sdb La lista de dispositivos que forma parte del RAID
Estos RAID los crearemos en modo degradado, de momento solo aadiremos al RAID los discos que hemos formateado, por lo que las entradas que corresponden al disco /dev/sda las dejamos en missing El siguiente paso sera darles formato a las particiones RAID, para ello teclee lo siguiente (Recuerde que esta accin debe hacerse en nivel de ejecucin 1).

[BASH]# mkfs.ext3 /dev/md0 [BASH]# mkswap /dev/md1


Una vez hecho esto tenemos que modificar el fichero

/etc/mdadm.conf
para ello ejecutaremos

[BASH]# mdadm --examine --scan


Que nos devuelve informacin de nuestro RAID. De dicha informacin se deber agregar las siguientes lineas al final del ficheromdadm.conf

ARRAY /dev/md0 level=raid1 num-devices=2 UUI... ARRAY /dev/md1 level=raid1 num-devices=2 UUI...

Montaje del RAID#


La siguiente accin sera crear los puntos de montaje en donde sern alojadas nuestras particiones RAID. Para ello crearemos dos carpetas dentro de la ruta /mnt como se muestra a continuacin.

[BASH]# mkdir /mnt/md0 [BASH]# mkdir /mnt/md1


Y luego de crearlas monte sobre ellas las particiones RAID creadas anteriormente

[BASH]# mount /dev/md0 /mnt/md0 [BASH]# mount /dev/md0 /mnt/md1


Ahora modificaremos el archivo

/etc/fstab
para que nos monte las particiones RAID como RAIZ y SWAP , para ello deber sustituir las siguientes lineas:

/dev/sda1 /dev/sda2
Por estas:

/ none

ext3 swap

defaults,errors=remount-ro sw

0 0

1 0

/dev/md0 /dev/md1

/ none

ext3 swap

defaults,errors=remount-ro sw

0 0

1 0

Tambin se debe modificar el fichero

/etc/mtab
hacemos lo mismo, sustituimos dentro del fichero /dev/sda1 por /dev/md0

Modificando el boteo de Linux#


Ahora editaremos el men del grub para que arranque el sistema operativo desde la particin RAID que hemos creado, para ello abra el fichero:

/boot/grub/menu.lst
Y duplica las lineas que hacen referencia a la particin en donde se encuentra los ficheros de boteo de linux, en nuestro caso debe ser algo similar a esto:

title root kernel initrd quiet

Centos 5.3, kernel 2.6.24-17-generic (hd0,0) /boot/vmlinuz-2.6.24-17-generic root=/dev/sda1 ro quiet splash /boot/initrd.img-2.6.24-17-generic

Y modificamos el primero para que apunte a /dev/md0 en el disco (hd1,0). El segundo lo dejamos apuntando a nuestra particin raz actual por si no arranca correctamente desde /dev/md0. Al final nuestro fichero deber quedar de la siguiente manera:

title root kernel initrd quiet title root kernel initrd quiet

Centos 5.3, kernel 2.6.24-17-generic (hd1,0) /boot/vmlinuz-2.6.24-17-generic root=/dev/md0 ro quiet splash /boot/initrd.img-2.6.24-17-generic

Centos 5.3, kernel 2.6.24-17-generic (hd0,0) /boot/vmlinuz-2.6.24-17-generic root=/dev/sda1 ro quiet splash /boot/initrd.img-2.6.24-17-generic

A continuacin actualizaremos el ramdiskRamdisk es una porcin de memoria ram la cual se utiliza como si fuera un disco duro. Los discos RAM tienen tamaos establecidos que son como una particin de disco. Los tiempos de acceso para un disco RAM son mucho mas rpidos que en un disco fsico Sin embargo, cualquier informacin guardad en un ram disk se pierde cuando el sistema se apaga o reinicia. Pero son un buen lugar para almacenamiento temporal de datos. Desde la versin 2.4 del kernel de linux se puede encontrar soporte para ramdisks, por lo cual se puede encontrar en cualquier distro moderna de linux Para hacer la actualizacin teclearemos lo siguiente en consola:

[BASH]# update-initramfs -u
Ya solo faltara copiar todos los datos de / a la nueva particin desde la que va a arrancar ahora, para hacerlo teclee lo siguiente:

[BASH]# cp -dpRx / /mnt/md0


Donde:

dp Preserva los los atributos de los ficheros (enlaces simblicos,permisos, modos de lectura) R Copia recursivamente el contenido de las carpetas x Le indica que debe adaptarse al sistema de ficheros nuevo
Ademas de todos los pasos antes descritos debemos activar el grub en los dos discos duros, para ello teclee lo siguiente en una terminal de BASH:

[BASH]# grub grub> root (hd1,0) grub> setup (hd1) grub> root (hd0,0) grub>setup (hd0) exit
Los siguiente sera reiniciar el equipo el cual ya tiene que arrancar desde el RAID que como recordara se encuentra funcionando en modo degradado ya que solo dispone de un disco duro. Lo podemos verificar con el siguiente comando

[BASH]# df -h
Recuerde la particin /dev/md0 debe estar montada en /. Ahora que hemos conseguido arrancar el sistema desde el segundo disco duro es hora de preparar las particiones del primer disco para aadirlo al RAID, para hacerlo se tiene que modificar el identificador de estas particiones que al igual que lo hicimos con /dev/sdb1 y /dev/sdb2, se deber hacer con /dev/sda1 y /dev/sda2. Luego de haber hecho el paso anterior aadiremos las particiones del disco duro 1 al RAID.

[BASH]# mdadm --add /dev/md0 /dev/sda1 [BASH]# mdadm --add /dev/md1 /dev/sda2
Si compruebas ahora el fichero /proc/mdstat veras que se esta sincronizando el RAID, hay que esperar hasta que finalice:

[BASH]# more /proc/mdstat -----------------------------------------------------------------------Personalities : [raid1] md2 : active raid1 sda1[2] sdb1[1] 8702093 blocks [2/1] [_U] [=====>...............] speed=67433K/sec recovery = 37.3% (3245881/8702093) finish=2.4min

md1 : active raid1 sda2[0] sdb2[1] 197920 blocks [2/2] [UU]


Al finalizar el proceso nos debera arrojar un resultado como este:

Personalities : [raid1] md2 : active raid1 sda1[0] sdb1[1] 8702093 blocks [2/2] [UU] md1 : active raid1 sda2[0] sdb2[1] 197920 blocks [2/2] [UU]
Lo cual nos quiere decir que ya lo tenemos correctamente sincronizando Volveremos a modificar el fichero

/etc/mdadm.conf
al cual tendremos que eliminar las lineas que habamos aadido anteriormente y sustituirlas por las que nos devuelve ahora la ejecucin del siguiente comando:

[BASH]# mdadm --examine --scan


En particular las siguientes lineas:

... ARRAY /dev/md0 level=raid1 num-devices=2 UUI... ARRAY /dev/md1 level=raid1 num-devices=2 UUI...
Debemos modificar de nuevo el grub para que la entrada que apunta todava a /dev/sda1 apunte a /dev/md0 en el disco (hd0,0). Para hacerlo abra el fichero /boot/grub/menu.lst y cambie esta linea

kernel
por esta otra

/boot/vmlinuz-2.6.24-17-generic root=/dev/sda1 ro quiet splash

kernel

/boot/vmlinuz-2.6.24-17-generic root=/dev/md0 ro quietsplash

al final deber lucir de la siguiente manera

title root kernel initrd quiet

Centos 5.3, kernel 2.6.24-17-generic (hd1,0) /boot/vmlinuz-2.6.24-17-generic root=/dev/md0 ro quiet splash /boot/initrd.img-2.6.24-17-generic

titleCentos 5.3, kernel 2.6.24-17-generic root (hd0,0) kernel /boot/vmlinuz-2.6.24-17-generic root=/dev/md0 ro quiet splash initrd /boot/initrd.img-2.6.24-17-generic quiet
Con esto el sistema arrancara por defecto desde el disco hd1 y en el caso de que este disco falle deberemos indicarle manualmente que arranque desde la otra particin. Para que el sistema arranque automticamente desde el segundo disco si falla el primero debemos aadir fallback justo debajo de default en el fichero /boot/grub/menu.lst

... default fallback ...

0 1

O sea, que arranque por defecto de la entrada 0 (la primera del listado) y en caso de error que arranque de la entrada 1 (la segunda del listado). Finalmente volvemos a actualizar el ramdisk

[BASH]# update-initramfs -u
Y por ultimo reiniciamos el equipo

Comprobacin final del RAID#


Ahora el sistema debe ser capaz de arrancar desde cualquiera de los dos discos aunque falle uno de ellos, puedes hacer pruebas desconectando uno de los discos para ver si todo sigue funcionando correctamente. Si no quieres abrir el equipo puedes simular un fallo de discos de la siguiente manera:

[BASH]# mdadm --manage /dev/md0 --fail /dev/sdb1 [BASH]# mdadm --manage /dev/md0 --remove /dev/sdb1
Reinicias y ahora el equipo deber arrancar con el RAID en modo degradado.

Vous aimerez peut-être aussi