[Date Prev][Date Next] [Thread Prev][Thread Next] [Date Index] [Thread Index]

Re: RAID 1 x Software



El jue, 02-10-2003 a las 02:19, Gustavo escribió:
> trujo wrote:
> 
> >Bueno yo tengo montados un par sistemas en raid 1 casi como tu, lo
> >explico.
> >Todas las partisiones del raid son fd.
> >En los dos disco tengo particiones swap que no pertenecen al raid (es
> >mas eficaz).
> >En los dos discos hay una partición (/boot) que no forma parte del raid
> >pero que las sincronizo a mano (de hecho no las toco para nada)
> >he creado dos lilo.conf, uno que instala /boot/vmlinuz en hda y otro que
> >instala /boot-bis/vmlinuz en hdb.
> >Con esto arranca aunque solo haya un disco.
> >he creado un fichero /etc/raidtab poco mas o menos igual que el tuyo
> >(como no estoy en el trabajo no puedo comprobarlo).
> >No he tenido problemas de tener directorios montados por que los he
> >creado partiendo de cero por dos vias distintas.
> >El primero se trataba de pasar un sistema que ya existia de un disco al
> >raid nuevo desechando el disco antiguo, no tube ningun problema pues
> >hasta el cambio definitivo trabaje con el raid en hdb y hdc.
> >El segundo se trataba de crear un raid partiendo de cero, para ello cree
> >la estructura y el raid con knoppix, cree una imagen que tuviera el raid
> >1 incluido y la inserte en el cd que tengo para instalar woody desde la
> >red, empese la instalación normal y cuando llege a montar las
> >particiones me fuy a la consola 2 di la orden de raidstart (que habia
> >prebiamente incluido) y la monte como /, despues volvi a la consola 1 y
> >segui con el paso siguiente a montar particiones.
> >
> >De los demas ficheros (a parte del raidtab) de los que hablas no se
> >nada.
> >
> >Si quieres mas detalles escribeme a
> >antonio.trujillo.sspa@juntadeandalucia.es que es mi correo del trabajo,
> >pero ruego no lo useis mucho pues para algo estoy en la lista.
> >  
> >
> Ya se construyo del md1 el que monte en / y el md2 el que monte en /datos.
> No tenia /proc, y cree el directorio y se genero como corresponde.
> En principio estubo todo bien espejo los discos y demas.
> Pero despues se me murio una particion y no me la quiere agregar al raid 
> , sale esto en los logs:
> 
> Oct  1 21:06:12 raptor kernel: md: considering hdc3 ...
> Oct  1 21:06:12 raptor kernel: md:  adding hdc3 ...
> Oct  1 21:06:12 raptor kernel: md:  adding hda3 ...
> Oct  1 21:06:12 raptor kernel: md: created md1
> Oct  1 21:06:12 raptor kernel: md: bind<hda3,1>
> Oct  1 21:06:12 raptor kernel: md: bind<hdc3,2>
> Oct  1 21:06:12 raptor kernel: md: running: <hdc3><hda3>
> Oct  1 21:06:12 raptor kernel: md: hdc3's event counter: 00000028
> Oct  1 21:06:12 raptor kernel: md: hda3's event counter: 00000020
> Oct  1 21:06:12 raptor kernel: md: freshest: hdc3
> Oct  1 21:06:12 raptor kernel: md: kicking non-fresh hda3 from array!
> Oct  1 21:06:12 raptor kernel: md: unbind<hda3,1>
> Oct  1 21:06:12 raptor kernel: md: export_rdev(hda3)
> Oct  1 21:06:12 raptor kernel: md: RAID level 1 does not need chunksize! 
> Continuing anyway.
> Oct  1 21:06:12 raptor kernel: md1: max total readahead window set to 124k
> Oct  1 21:06:12 raptor kernel: md1: 1 data-disks, max readahead per 
> data-disk: 124k
> Oct  1 21:06:12 raptor kernel: raid1: device hdc3 operational as mirror 1
> Oct  1 21:06:12 raptor kernel: raid1: raid set md1 active with 1 out of 
> 2 mirrors
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
esto quiere decir que se a resincronizado el md1 y que esta funcionando
con los dos espejos bien.
> Oct  1 21:06:12 raptor kernel: md: updating md1 RAID superblock on device
> Oct  1 21:06:12 raptor kernel: md: hdc3 [events: 00000029]<6>(write) 
> hdc3's sb offset: 4882688
> Oct  1 21:06:12 raptor kernel: md: recovery thread got woken up ...
> Oct  1 21:06:12 raptor kernel: md: recovery thread finished ...
> Oct  1 21:06:12 raptor kernel: md: ... autorun DONE.
> 
> Este es el estado actual:
> # cat /proc/mdstat
> Personalities : [raid1]
> read_ahead 1024 sectors
> md2 : active raid1 hda4[1] hdc4[0]
>       33669632 blocks [2/2] [UU]
> 
> md1 : active raid1 hdc3[0]
>       4882688 blocks [2/1] [_U]
> 
> unused devices: <none>
> No concigo volver a labantar la segunda unidad hda3 del raid md1 nose 
> porque, repentinamente murio.
¿a que te refieres con lebantar hda3?
por lo que he visto hda3 y hdc3 forman el md1 por lo que deberias de
usar /dev/md1 (aunque solo tengas un disco por rotura del otro) y no las
particiones que forman el espejo.
> # raidhotadd /dev/md1 /dev/hda3
> /dev/md1: can not hot-add disk: invalid argument.
para añadir una partición a un espejo es porque se ha roto uno de los
dos previamente, por lo que como tu no lo tienes roto no puedes añadir
otro. 
> No la puedo arreglar le hice e2fsck -c y reparo pero nada....
> raptor:~# tail /var/log/messages
> Oct  1 21:07:31 raptor kernel: md: trying to hot-add hda3 to md1 ...
> Oct  1 21:07:31 raptor kernel: md: can not import hda3, has active inodes!
> Oct  1 21:07:31 raptor kernel: md: error, md_import_device() returned -16
> 
> El problema viene con la particion /boot, no termino bien de comprender 
> como combiene hacer esto y no consigo lebantar el raid para /boot el 
> /dev/md0
> Al intentar crear el 3er RAID md0 de /boot con hda2 y hdc2 (10MB cada una):
> # mkraid /dev/md0
> handling MD device /dev/md0
> analyzing super-block
> disk 0: /dev/hdc2, 9576kB, raid superblock at 9472kB
> /dev/hdc2 appears to contain an ext2 filesystem -- use -f to override
> mkraid: aborted, see the syslog and /proc/mdstat for potential clues.
> LOGS:
> Oct  1 21:06:12 raptor kernel: md: could not import hdc2!
> Oct  1 21:06:12 raptor kernel: md: autostart hdc2 failed!
> 
> La opcion que me comentas es mas facil, mantener dos /boot iguales en 
> cada disco cada uno con su respectivo hdx de arranque.
> Gracias
> 
-- 
Por favor, NO utilice formatos  de archivo  propietarios para el
intercambio de  documentos, como DOC y XLS, sino HTML, RTF, TXT,
CSV o cualquier otro que no obligue a utilizar un programa de un
fabricante  concreto para tratar la información contenida en él.
SALUD



Reply to: