Vous êtes sur la page 1sur 34

1

INSTITUTO TECNOLGICO DE ACAPULCO


TALLER SISTEMAS OPERATIVOS DE RED
ISC

Practica 5
INSTALACION Y CONFIGURACIONDE DISCOS ESPEJOS.

PROFESOR: Adrin Morales Glvez


INTEGRANTES:
Valentin Bentez itzel carolina
Gatica Gabino Jennifer
Martnez de Mendoza Humberto Antonio
Caballero Morales Daniel
Carmona Garca francisco Javier
HORARIO: 12:00 14:00
21

NDICE
Introduccin
. 3
Marco
terico..
4-7
Desarrollo
.. 8-22
Resultados
23-28
Conclusin
29
Bibliografa
30

21

INTRODUCCIN

Este manual busca mostrar como configurar un


arreglo RAID1, durante el proceso de instalacin de
Ubuntu Linux en un servidor con dos unidades de
discos duros, bien sea ATA o SATA, se recomienda el
uso de hardware adecuado del servidor, ya que de
esta manera si uno de los controladores de los discos
duros llegaran a fallar, entonces aun tendramos otro
mtodo por lo cual seguira el funcionamiento de este
arreglo.
Para todos aquellos que no estn familiarizados con
los arreglos RAID1, son espejos de forma idnticas
entre dos o ms discos duros.

21

MARCO TERICO
RAID 1#
Un RAID 1 crea una copia exacta (o espejo) de un
conjunto de datos en dos o ms discos. Esto resulta
til cuando el rendimiento en lectura es ms
importante que la capacidad. Un conjunto RAID 1 slo
puede ser tan grande como el ms pequeo de sus
discos. Un RAID 1 clsico consiste en dos discos en
espejo, lo que incrementa exponencialmente la
fiabilidad respecto a un solo disco; es decir, la
probabilidad de fallo del conjunto es igual al producto
de las probabilidades de fallo de cada uno de los
discos (pues para que el conjunto falle es necesario
que lo hagan todos sus discos).
Adicionalmente, dado que todos los datos estn en
dos o ms discos, con hardware habitualmente
independiente, el rendimiento de lectura se
incrementa aproximadamente como mltiplo lineal del
nmero de copias; es decir, un RAID 1 puede estar
21

leyendo simultneamente dos datos diferentes en dos


discos diferentes, por lo que su rendimiento se
duplica. Para maximizar los beneficios sobre el
rendimiento del RAID 1 se recomienda el uso de
controladoras de disco independientes, una para cada
disco (prctica que algunos denominan splitting o
duplexing).
Como en el RAID 0, el tiempo medio de lectura se
reduce, ya que los sectores a buscar pueden dividirse
entre los discos, bajando el tiempo de bsqueda y
subiendo la tasa de transferencia, con el nico lmite
de la velocidad soportada por la controladora RAID.
Sin embargo, muchas tarjetas RAID 1 IDE antiguas
leen slo de un disco de la pareja, por lo que su
rendimiento es igual al de un nico disco. Algunas
implementaciones RAID 1 antiguas tambin leen de
ambos discos simultneamente y comparan los datos
para detectar errores. La deteccin y correccin de
errores en los discos duros modernos hacen esta
prctica poco til.
Al escribir, el conjunto se comporta como un nico
disco, dado que los datos deben ser escritos en todos
los discos del RAID 1. Por tanto, el rendimiento no
mejora.
El RAID 1 tiene muchas ventajas de administracin.
Por ejemplo, en algunos entornos 24/7, es posible
dividir el espejo: marcar un disco como inactivo,
hacer una copia de seguridad de dicho disco y luego
reconstruir el espejo. Esto requiere que la aplicacin
de gestin del conjunto soporte la recuperacin de los
datos del disco en el momento de la divisin. Este
procedimiento es menos crtico que la presencia de

21

una caracterstica de snapshot en algunos sistemas de


ficheros, en la que se reserva algn espacio para los
cambios, presentando una vista esttica en un punto
temporal
dado
del
sistema
de
ficheros.
Alternativamente, un conjunto de discos puede ser
almacenado de forma parecida a como se hace con
las tradicionales cintas.
RAID es un mtodo de uso de varios discos duros para
actuar como uno. Hay dos efectos de RAID:
1. Ampliar la capacidad del disco: RAID 0. Si
usted tiene 2 x 500 GB de disco duro y luego
convertido en espacio total de 1 TB
2. Evite la prdida de datos en caso de fallo del
disco: RAID 1, RAID 5, y RAID 6. Puede
combinar RAID 0 a RAID otro, por ejemplo,
RAID 0 + 1 RAID convertido 10.
Hay tres formas de crear RAID:
1. Software-RAID: Cuando el RAID es creado por
el software.
2. Hardware-RAID: Un controlador especial que
se utiliza para construir RAID.RAID de
hardware es generalmente ms rpido, y no
coloca la carga de la CPU, y RAID de
hardware se puede utilizar con cualquier
sistema operativo
3. Fakeraid: Desde RAID de hardware es muy
caro, muchos fabricantes de placas base
utilizan controladores de varios canales con
caractersticas especiales para realizar BIOS
RAID. Esta es una forma de software RAID
mediante controladores especiales, y no es
necesariamente ms rpido que el software
RAID cierto. LeerFakeRaidHowto para ms
detalles.
21

El RAID por software que se incluye con las versiones


actuales de Linux (y Ubuntu) se basa en el controlador
'mdadm' y funciona muy bien.

Requerimientos
1. Si usted est construyendo un servidor, el
servidor CD de instalacin incluye las
opciones necesarias.
2. Si usted est construyendo una computadora
de escritorio, entonces usted necesita el
"alternativo" CD de instalacin de
Ubuntu. LeerConseguir Instalar Ubuntu
alternativo disco y Cmo hacer Instalar un
Ubuntu alternativo
3. Cmo grabar una imagen ISO
4. Al menos 2 unidades de disco duro,
preferiblemente mismo tamao
Despus de una instalacin correcta, tambin debe
fijar manualmente 2 deficiencias en la configuracin
por defecto:
1. Instalar el sistema de arranque de GRUB en
segunda unidad (este paso no es necesario
si se utiliza Ubuntu 9.10 o uno ms reciente,
que utiliza Grub2)
2. Actualice el script de inicio para detectar una
unidad que ha fallado
Las 2 formas para hacer espejeo de discos
duros (raid1) es mediante la instalacin y
21

mediante software, nosotros lo haremos en una


distribucin de Linux (Ubuntu sever)

DESARROLLO
Configurar arreglo RAID1 durante la instalacin de
Ubuntu Server Edition
21

Este manual busca mostrar como configurar un


arreglo RAID1, durante el proceso de instalacin de
Ubuntu Linux en un servidor con dos unidades de
discos duros, bien sea ATA o SATA, se recomienda el
uso de hardware adecuado del servidor, ya que de
esta manera si uno de los controladores de los discos
duros llegaran a fallar, entonces aun tendramos otro
mtodo por lo cual seguira el funcionamiento de este
arreglo.
Para todos aquellos que no estn familiarizados con
los arreglos RAID1, son espejos de forma idnticas
entre dos o ms discos duros.

En primer lugar introduce el CD de instalacin de


Ubuntu Server Edition en la unidad de CD-ROM
y arranca el servidor con l, al llegar al men de
opciones de particionamiento debemos seleccionar
Manual como se muestra a continuacin:

A continuacin se han creado tres (3) particiones


en ambos discos: 8 GB para / (sistema), 500 MB
para swap o rea de intercambio y el resto del
espacio del disco para /home (datos). Tenga en
cuenta que en este momento el tipo de particin debe
ser Volumen fsico para RAID (0xFD en fdisk) en
21

10

lugar de sistema de ficheros con journaling ext3.


Tambin debe tener en cuenta como la primera
particin en ambos discos esta marcados de inicio. Sin
establecer las particiones de arranque no podra ser
capaz de arrancar el ordenador sin un CD.

Ajuste el tipo de particin y la marca de arranque,


seleccione Configurar RAID por Software.

Con esto tendremos dos discos con la misma


cantidad de particiones de tipo RAID, luego
debemos guardar los cambios realizados a la tabla de
particin (Imagen 5).

21

11

Guardar los cambios, luego crearemos tres (3) MD


(cada uno configurado como RAID1, con dos
(2) activas, discos hotspace 0.

Creando nuevos dispositivos MD.

RAID1 = espejo.

21

12

Dos dispositivos activos.

No hay dispositivos de reserva, luego


seleccionamos las particiones fsicas para ser incluido
en el conjunto RAID1. Es importante seleccionar dos
particiones con tamaos idnticos, en este caso: md0
= + sdb1, md1 sda2 = + = MD2 sdb2 y sda3 + sdb3.

21

13

Seleccin de componentes MD, luego de este se


debe configurar el sistema de archivos y los puntos
de montaje para cada dispositivo RAID1. En mi caso
dispositivo RAID1 #0 es ext3 montado en /,
dispositivo RAD1 #1 es de intercambio y
dispositivo RAID1 #2es ext3 montada en /home.

Sistemas de archivos, creacin de los dispositivos


RAID.

Sistemas de archivos / creados en el dispositivo


RAID1 #0.

21

14

Swap o rea de intercambio creada en el


arreglo RAID1 #1.

Sistemas de archivos /home creados en el


arreglo RAID1 #2.

Todos los sistemas de archivos configurados, por


ultimo seleccionamos Configuracin de
particiones realizada y luego confirmamos Si para
21

15

escribir los cambios realizados en la tabla de


particiones. Desde este punto la instalacin de Ubuntu
es una instalacin normal.

Salvar los cambios.

Luego de la instalacin y el primer reinicio he


instalado tambin grub en el segundo disco que es
/ en dsb registro de inicio maestro (MBR). Sin esto,
el PC no arrancara si el primer disco (/ en sda) falla
y se elimina de la PC.
servidor@ubuntu:~$ sudo grub-install /dev/sda
servidor@ubuntu:~$ sudo grub
grub> device (hd0) /dev/sdb
grub> root (hd0,0)
grub> setup (hd0)
grub> quit
21

16

Para probar el funcionamiento


Despus de la instalacin comprob que todos los
sistemas de ficheros (/, swap y /home) estn
realmente
en el RAID1 .
servidor@ubuntu:~$ grep /dev/md /etc/fstab
/dev/md0
/
ext3
defaults,errors=remount-ro
0
1
/dev/md2
/home
ext3
defaults
0
2
/dev/md1
none
swap
sw
0
0
servidor@ubuntu:~$ df -h / /home
Filesystem
Size
Used
Avail
Mounted on
/dev/md0
7.4G 586M 6.4G
/dev/md2
12G
159M 12G

Use%
9%
2%

/
/home

El estado de todos los dispositivos RAID se puede


comprobar desde el archivo proc /mdstat.
Cada dispositivo contiene dos discos MdN sdXN y cada
dispositivo debera tener MdN 2 / 2 y UU. Ms
detalles pueden set vistas con la utilidad mdadmn.
servidor@ubuntu:~$ cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1]
[raid6] [raid5] [raid4] [raid10]
md2 : active raid1 sda3[0] sdb3[1]
12659136 blocks [2/2] [UU]
md1 : active raid1 sda2[0] sdb2[1]
489856 blocks [2/2] [UU]
md0 : active raid1 sda1[0] sdb1[1]

21

17

7815488 blocks [2/2] [UU]


unused devices: <none>
unused devices: <none>
servidor@ubuntu:~$ sudo mdadm query detail
/dev/md0
/dev/md0:
Version : 00.90.03
Creation Time : Wed Oct 17 16:45:59 2007
Raid Level : raid1
Array Size : 7815488 (7.45 GiB 8.00 GB)
Used Dev Size : 7815488 (7.45 GiB 8.00 GB)
Raid Devices : 2
Total Devices : 2
Preferred Minor : 0
Persistence : Superblock is persistent
Update Time : Wed Oct 17 15:16:18 2007
State : active
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
UUID : 1760de71:d6ca4125:8324c8dc:300ec7e1
Events : 0.11
Number Major Minor RaidDevice State
0
8
1
0
active
sync /dev/sda1
1
8
17
1
active
sync /dev/sdb1
La recuperacin de un disco que ha fallado
Luego simulamos un fallo de disco desconectando /
dev / sdb. El sistema an las botas, pero el /

21

18

dev/sdb1 muestra el estado, / y dev/sdb2 dev/sdb3 /


han desaparecido del sistema y cmo el / dev / MDN
es marcado como degradadas en el campo de
estado.
servidor@ubuntu:~$ cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1]
[raid6] [raid5] [raid4] [raid10]
md2 : active raid1 sda3[0]
12659136 blocks [2/2] [U_]
md1 : active raid1 sda2[0]
489856 blocks [2/2] [U_]
md0 : active raid1 sda1[0]
7815488 blocks [2/2] [U_]
unused devices: <none>
servidor@ubuntu:~$ sudo mdadm query detail
/dev/md0
/dev/md0:
Version : 00.90.03
Creation Time : Wed Oct 17 16:45:59 2007
Raid Level : raid1
Array Size : 7815488 (7.45 GiB 8.00 GB)
Used Dev Size : 7815488 (7.45 GiB 8.00 GB)
Raid Devices : 2
Total Devices : 1
Preferred Minor : 0
Persistence : Superblock is persistent
Update Time : Wed Oct 17 15:16:18 2007
State : active, degraded
Active Devices : 1
Working Devices : 1
Failed Devices : 0
Spare Devices : 0

21

19

UUID : 1760de71:d6ca4125:8324c8dc:300ec7e1
Events : 0.11
Number Major
0
8
/dev/sda1
1
0

Minor
1
0

RaidDevice
0

State
active sync

removed

Luego me vuelve a conectar el disco y dio


instrucciones al sistema para su reconstruccin.
Despus de reconstruir todo estaba bien otra vez.
servidor@ubuntu:~$ sudo mdadm add /dev/md0
/dev/sdb1
mdadm: hot added /dev/sdb1
servidor@ubuntu:~$ sudo mdadm add /dev/md1
/dev/sdb2
mdadm: hot added /dev/sdb2
servidor@ubuntu:~$ sudo mdadm add /dev/md2
/dev/sdb3
mdadm: hot added /dev/sdb3
servidor@ubuntu:~$ cat /proc/mdstat
Personalities : [raid1]
md2 : active raid1 sdb3[2] sda3[0]
12659136 blocks [2/1] [U_]
resync=DELAYED
md1 : active raid1 sda2[0] sdb2[1]
489856 blocks [2/2] [UU]
md0 : active raid1 sdb1[2] sda1[0]
7815488 blocks [2/1] [U_]
[>....................] recovery = 2.8% (215168/7815488)
finish=16.2min speed=9780K/sec
unused devices: <none>

21

20

Logical Volume Manager (LVM)


Logical Volume Manager o LVM , permite a los
administradores crear lgicas volmenes de uno o
varios discos duros fsicos. Volmenes LVM se pueden
crear en ambas particiones RAID de software y
particiones estndar que residen en un solo disco. Los
volmenes tambin pueden ampliarse, dando mayor
flexibilidad a los sistemas de medida que cambian las
necesidades.
Visin de conjunto
Un efecto secundario de potencia y la flexibilidad de
LVM es un mayor grado de complicacin. Antes de
zambullirse en el proceso de instalacin de LVM, lo
mejor es familiarizarse con algunos trminos.
1. Volumen fsico (PV): disco duro fsico, particin
de disco o una particin RAID de software con
formato de LVM PV.
2. Grupo de volmenes (VG): est hecho de uno o
ms volmenes fsicos. Un VG puede se puede
ampliar mediante la adicin de ms PV.Un VG es
como una unidad de disco virtual, desde la que
se tallan uno o ms volmenes lgicos.
3. De volmenes lgicos (LV): es similar a una
particin en un sistema no-LVM. Un LV est
formateado con el sistema de archivos deseado
(EXT3, XFS, JFS, etc), es entonces disponible
para el montaje y almacenamiento de datos.
Instalacin
Como ejemplo de esta seccin cubre la instalacin de
Ubuntu Server Edition con / srv montado en un
volumen LVM. Durante la instalacin inicial slo un
volumen fsico (PV) ser parte del grupo de volmenes

21

21

(VG). Otro PV se aadir despus de la instalacin


para demostrar cmo un VG se puede ampliar.
Hay varias opciones de instalacin para el
LVM, "guiado - utilizar todo el disco y la configuracin
de LVM" que tambin le permitir asignar una parte
del espacio disponible para LVM, "guiado - utilizar todo
y configuracin LVM cifrado" , o manualmente la
configuracin del particiones LVM y configurar. En este
momento la nica manera de configurar un sistema
con particiones tanto LVM y estndar, durante la
instalacin, es utilizar el enfoque manual.
1. Siga los pasos de instalacin hasta llegar a
la particin de los discos de paso, a continuacin:
2. En el "discos de particin de pantalla
elegir "Manual" .
3. Seleccione el disco duro y en la siguiente
pantalla, seleccione "s" a la "Creacin de una
nueva tabla de particiones vaca en este
dispositivo" .
4. A continuacin, cree estndar / boot , de
intercambio y / particiones con cualquier sistema
de archivos que usted prefiera.
5. Para el LVM / srv , crear una nueva lgica de
particin. A continuacin, cambie "Utilizar
como" a "volumen fsico para LVM" entonces ha
terminado de definir la particin" .
6. Ahora seleccione "Configurar el gestor de
volmenes lgicos" en la parte superior, y
seleccione "S" para escribir los cambios en el
disco.
7. Para la "accin de configuracin LVM" en la
siguiente pantalla, seleccione "Crear grupo de
volmenes" . Introduzca un nombre para la VG
como vg01 , o algo ms descriptivo. Despus de
21

22

introducir un nombre, seleccionar la particin


configurada para LVM y elija"Continuar" .
8. De vuelta en la "accin de configuracin
LVM" pantalla, seleccione "Crear volumen
lgico" . Seleccione el grupo de volmenes de
nueva creacin, y escriba un nombre para el
nuevo LV, por ejemplo srv ya que es el punto
previsto montar. A continuacin, seleccione un
tamao, que puede ser la particin completa, ya
que siempre se puede ampliar ms
tarde. Seleccione "Finalizar" y usted debe estar de
vuelta en el principal "discos de particin" de
pantalla.
9. Ahora agregue un sistema de archivos para el
nuevo LVM. Seleccione la particin bajo "vg01 VG
LVM, LV srv" , o lo que sea el nombre que ha
elegido, el elegir Usar como . Configuracin de un
sistema de archivos como la seleccin normal de /
srv como el punto de montaje. Una vez hecho
esto, seleccione "ha terminado de definir la
particin" .
10.
Finalmente, seleccione "Finalizar el
particionado y escribir los cambios en el disco" . A
continuacin, confirme los cambios y continuar
con el resto de la instalacin.
Hay algunas herramientas tiles para ver informacin
sobre LVM:
1. pvdisplay: muestra informacin sobre los
volmenes fsicos.
2. vgdisplay: muestra informacin acerca de
grupos de volmenes.
3. lvdisplay: muestra informacin acerca de los
volmenes lgicos.
Extender los grupos de volmenes
21

23

Continuando con srv como ejemplo de volmenes


LVM, esta seccin cubre la adicin de un segundo
disco duro, creando un volumen fsico (PV),
aadindolo al grupo de volmenes (VG), que se
extiende el volumen lgico srv y, finalmente, la
ampliacin del sistema de archivos. En este ejemplo
se asume un segundo disco duro se ha aadido al
sistema. En este ejemplo, este disco duro se
denominar / dev / sdb , y vamos a utilizar todo el
disco como un volumen fsico (usted podra optar por
crear particiones y utilizarlos como diferentes
volmenes fsicos)
Asegrese de que usted no tiene ya una ya existente /
dev / sdb antes de emitir los comandos a
continuacin. Usted podra perder algunos datos si
emite esos comandos en un disco que no est vaca.
1. En primer lugar, crear el volumen fsico, en un
terminal ejecutar:
2. sudo pvcreate / dev / sdb
3. Ahora ampliar el grupo de volmenes (VG):
4. sudo vgextend vg01 / dev / sdb
5. Utilice vgdisplay para averiguar las extensiones
fsicas Gratis - PE / tamao (el tamao puede
asignar). Vamos a asumir un tamao libre de 511
PE (equivalente a 2 GB con un tamao de 4 MB
PE) y vamos a utilizar todo el espacio libre
disponible. Utilice su propio PE y / o el espacio
libre.
Los volmenes lgicos (LV) ahora se puede
extender por diferentes mtodos, slo veremos
cmo utilizar el PE para extender el LV:

21

24

sudo lvextend / dev / vg01 / srv -l 511


El -l opcin permite que el LV se extienda el uso
de PE. El -L opcin permite que el LV se extienda
el uso de Meg, carruaje, Tera, etc bytes.
6. A pesar de que se supone que debes ser capaz
de expandir un sistema de archivos ext3 o ext4
sin desmontarlo primero, puede ser una buena
prctica para desmontar todos modos y
comprobar el sistema de archivos, por lo que no
se metan hasta el da que desee para reducir un
volumen lgico (en ese caso, desmontar primero
es obligatorio).
Los siguientes comandos son para
un EXT3 o EXT4 sistema de archivos. Si est
utilizando otro sistema de archivos que puede
haber otros servicios pblicos disponibles.
sudo umount / srv
sudo e2fsck -f / dev / vg01 / srv
El -f opcin de e2fsck fuerzas comprobar incluso si
el sistema parece limpio.
7. Por ltimo, cambiar el tamao del sistema de
archivos:
8. sudo resize2fs / dev / vg01 / srv
9. Ahora montar la particin y comprobar su
tamao.
mount / dev / vg01 / srv / srv && df -h / srv

21

25

RESULTADOS
Instalacin / SoftwareRAID
Requerimientos
5. Si usted est construyendo un servidor, el
servidor CD de instalacin incluye las
opciones necesarias.
6. Si usted est construyendo una computadora
de escritorio, entonces usted necesita el
"alternativo" CD de instalacin de
21

26

Ubuntu. LeerConseguir Instalar Ubuntu


alternativo disco y Cmo hacer Instalar un
Ubuntu alternativo
7. Cmo grabar una imagen ISO
8. Al menos 2 unidades de disco duro,
preferiblemente mismo tamao
Despus de una instalacin correcta, tambin debe
fijar manualmente 2 deficiencias en la configuracin
por defecto:
3. Instalar el sistema de arranque de GRUB en
segunda unidad (este paso no es necesario
si se utiliza Ubuntu 9.10 o uno ms reciente,
que utiliza Grub2)
4. Actualice el script de inicio para detectar una
unidad que ha fallado
Instalacin
Instalar Ubuntu hasta llegar a la particin de los discos
Particin del disco
Advertencia: el sistema de ficheros / boot no puede
utilizar cualquier nivel SoftRAID distinto de 1 con la
poblacin de Ubuntu gestor de arranque. Si desea
utilizar algn otro nivel de RAID para la mayora de las
cosas, tendrs que crear particiones separadas y crear
un dispositivo RAID 1 para / boot.
Advertencia: se eliminarn todos los datos en los
discos duros.
1. Seleccione "Manual" como mtodo de particin
2. Seleccione el disco duro, y estoy de acuerdo "Crear
una nueva tabla de particiones vaca en este
dispositivo?"

21

27

3. Seleccione la opcin "ESPACIO LIBRE" en la primera


unidad a continuacin, seleccione "particionar
automticamente el espacio libre
4. Ubuntu crear 2 particiones: / y swap, como se
muestra a continuacin:
5. En particin / seleccionar "bandera de arranque" y
lo puso en "on"
6. Repita los pasos 2 a 5 para el otro disco duro
Como ves Ubuntu 9.10 hace que la creacin de RAID
muy fcil. No hay necesidad de definir la particin
manualmente ms! Ubuntu 9.10 tambin usa ext4, el
ltimo tipo de sistema de archivos de Linux.
Configuracin del RAID
1. Una vez que haya completado su particin
en los principales "discos de particin" de la
pgina, seleccione "Configuracin de RAID
por software"
2. Seleccione "S"
3. Seleccione "Crear nueva unidad MD"
4. Seleccione el tipo de RAID: RAID 0, RAID 1,
RAID 5 o RAID 6
5. Nmero de dispositivos. RAID 0 y 1 necesitan
2 unidades. 3 para RAID 5 y RAID 6 para 4.
6. Nmero de dispositivos libres. Introduzca 0 si
no tiene unidad de repuesto.
7. seleccionar qu particiones que desea
utilizar. Por lo general van a ser sda1 y sdb1
o hda1 o hdb1. Por lo general los nmeros
21

28

coinciden y las diferentes letras son para


diferentes discos duros.
8. En este punto, la instalacin puede dejar de
responder; esto se debe a los discos duros ya
han comenzado el proceso de
sincronizacin.Repita los pasos 3 a 7 con
cada par de particiones que haya creado.
9. Una vez hecho esto, seleccione Finalizar.
Formateo
Ubuntu 9.10 formatear automticamente las
particiones.
Del gestor de arranque
Hay varios problemas reportados por la versin
anterior de Ubuntu. Pero Ubuntu 9.10 ya las
arregla. En caso de que su siguiente disco duro no
arranca luego simplemente instalar Grub en otra
unidad. Ejemplos ...
grub-install / dev / sdb
grub-install / dev / sdc
Arrancar desde disco degradado
Si el defecto de disco duro falla, entonces RAID le
pedir que inicie desde el disco degradado. Si el
servidor se encuentra en un rea remota, la mejor
prctica puede ser para configurar esto ocurra de
forma automtica. Desde Ubuntu 8.10 no es una
nueva caracterstica para arrancar automticamente
si el disco predeterminado RAID falle. Simplemente:
1. editar /etc/initramfs-tools/conf.d/mdadm
2. cambio "BOOT_DEGRADED = false" a
"BOOT_DEGRADED = true"
NB:
1. Adems, este se puede especificar en la
lnea de arranque del kernel con los
bootdegraded = [true | false]
21

29

2. Tambin puede utilizar # dpkg-reconfigure


mdadm en lugar de CLI!
Pon a prueba tu RAID ahora!
No hace falta decir que las pruebas si su configuracin
RAID es necesaria! Slo tiene que seguir estos pasos
para poner a prueba su RAID:
1. apagado el servidor
2. eliminar los datos de alimentacin y el cable
de su primera unidad
3. iniciar el servidor y ver si su servidor puede
arrancar desde el disco degradado!
4. ???? Cul es el comando para cambiar de
nuevo de modo degradado vez que lo hace
esta prueba (muy necesario)? {Edicin}
quizs esto?cambio "BOOT_DEGRADED =
true" a "BOOT_DEGRADED = false"
Solucin de problemas
El espacio de intercambio no llegar, mensaje de error
en dmesg
Siempre que el RAID est funcionando bien esto se
puede solucionar con
update-initramfs -u -k all sudo
Uso de mdadm
Introduccin
Para aquellos que quieren un control total sobre la
configuracin RAID, mdadm puede haber una manera
mejor que utilizar los mens.
Hechos iniciales importantes
Antes de comenzar, tenga en cuenta los diferentes
formatos de metadatos disponibles. El valor por
defecto (al menos en Lucid) es 0,90, lo que permite la
compatibilidad con la mayora de las versiones de

21

30

grub, pero no aceptar> 28 unidades, ni unidades de


2 TB>.
Comprobacin del estado de su RAID
Dos comandos tiles para comprobar el estado son:
cat / proc / mdstat
Esto "debera" seria algo similar a espectculo
Personalidades: [raid1] [RAID6] [RAID 5] [RAID 4]
md5: sda7 raid1 [0] sdb7 [1]
62685504 bloques [2/2] [UU]
md0: sda1 raid1 [0] sdb1 [1]
256896 bloques [2/2] [UU]
MD6: sdc1 RAID 5 [0] sde1 [2] sdd1 [1]
976767872 bloques de nivel 5, 64k chunk,
algoritmo 2 [3/3] [UUU]
A partir de esta informacin se puede ver que las
personalidades disponibles en esta mquina son
"raid1, RAID6, RAID 4, RAID 5 y" lo que significa que
esta mquina es puesta a punto de utilizar los
dispositivos RAID configurados en una configuracin
RAID 1, RAID 6, RAID 4 y RAID 5.
Tambin se puede ver en los tres dispositivos de
ejemplo meta que hay dos dispositivos RAID 1
reflejado meta. Estos son md0 y MD5. Se puede ver
que MD5 es una matriz RAID 1 y compuesto por
disco / dev / sda particin 7, y / dev / sdb particin 7,
que contiene bloques de 62.685.504, con 2 de 2
discos disponibles y ambos sincronizados.
Lo mismo puede decirse de md0 slo es ms pequeo
(se puede ver en el parmetro de bloques) y se
compone de / dev / sda1 y / dev / sdb1.

21

31

MD6 es diferente, ya que podemos ver es un array


RAID 5, rayado en 3 discos. Estos son / dev / sdc1, /
dev / sde1 y / dev / sdd1, con un 64k "trozo" de
tamao, que es bsicamente un tamao
"escribir". Algoritmo 2 muestra que es un patern
algoritmo de escritura 2 que es "disco de izquierda a
derecha el disco" escrito a travs de la matriz. Se
puede ver que los 3 discos estn presentes y en
sincrona.
sudo mdadm --query --detail / dev / md *
pero reemplazar el * con el nmero de particin.
Disk Array Operacin
Nota: Puede agregar, quitar discos o configurarlas
como defectuoso sin parar una matriz.
1. Para detener una matriz, escriba:
sudo mdadm --stop / dev / md0
Donde / dev / md0 es el dispositivo de matriz.
2. Para extraer un disco de una matriz
sudo mdadm --remove / dev / md0 / dev / sda1
Donde / dev / md0 es el dispositivo de serie y / dev /
sda es el disco defectuoso.
3. Agregue un disco a un array
sudo mdadm --add / dev / md0 / dev / sda1
Donde / dev / md0 es el dispositivo de serie y / dev /
sda es el disco nuevo. Nota : Esto no es lo mismo que
"cada vez ms" la matriz!
4. Iniciar una matriz, para volver a montar (iniciar) una
matriz que se ha creado previamente:
mdadm --assemble --scan
Mdadm buscar matrices definidas y empezar a
montarla.

21

32

5. Para realizar el seguimiento del estado de la matriz,


ya que se inici
cat / proc / mdstat
Bugs conocidos
Versiones de Ubuntu que comienzan con 12.04 no es
compatible con incursiones anidados como los niveles
1 + 0 o 5 + 0, debido a un problema no
resuelto https://bugs.launchpad.net/ubuntu/
+source/mdadm/+bug/1171945

CONCLUSIONES
De las dos formas para hacer Raid 1 se considera mas
fcil la primera osea desde la instalacin del sistema
operativo.
Tuvimos diversos problemas para conseguir los discos
duros para colocarlos y para lograr que funcionen al
mismo tiempo , adems de los miedos comunes a
daar nuestros equipos.
Raid 1 es una manera muy til de respaldar
automticamente nuestros datos de forma segura, eso
s se sacrifica rendimiento por seguridad.

21

33

BIBLIOGRAFA
Recursos
1.

http://ubuntuforums.o
rg/showthread.php?t=408461
2.
http://manwiki.net/index.php/8:mdadm
3.
https://wiki.ubuntu.co
m/HotplugRaid Mantener sus datos

21

34

sincronizados y reflejado en las unidades


externas.
4.
http://en.wikipedia.org
/wiki/RAID
5.
http://en.wikipedia.org
/wiki/Mdadm

21

Vous aimerez peut-être aussi