Re: Sobre LVM y Raid
El 10/08/11 14:11, Federico Alberto Sayd escribió:
> El 10/08/11 03:55, ZorroPlateado escribió:
>> El 09/08/11 21:18, Jesús Genicio escribió:
>>> Hola a tod@s!!!
>>>
>>> A ver si con vuestra inestimable ayuda termino de hacer las pruebas
>>> que estoy realizando, para poder de una vez poner mi idea en marcha.
>>>
>>> El escenario es el siguiente:
>>>
>>>
>>> servidor:/home/jesus/Desktop# vgdisplay -Cv
>>> Finding all volume groups
>>> Finding volume group "pruebas"
>>> Finding volume group "multimedia"
>>> VG Attr Ext #PV #LV #SN VSize VFree VG UUID
>>> multimedia wz--n- 4,00m 2 2 0 1,84t 348,25g
>>> pzLB28-pcpI-TqWL-NHLa-hpad-k15X-5E2adt
>>> pruebas wz--n- 4,00m 5 6 0 15,26g 8,29g
>>> 6CZaOa-z20f-arOU-Ah7X-f05o-DNSL-TsxxhM
>>>
>>> El que me interesa para la consulta es el vg=pruebas, que consta de 3
>>> llaves usb de 4 Gb iguales(misma marca), otra de 4Gb y una de 256 Mb
>>> como se ve aquí:
>>>
>>> servidor:/home/jesus/Desktop# lvdisplay -Cv pruebas
>>> Using logical volume(s) on command line
>>> LV VG #Seg Attr LSize Maj Min KMaj KMin Origin Snap%
>>> Move Copy% Log Convert LV UUID
>>> raid pruebas 2 -wi-ao 1,20g -1 -1 254 2
>>> GfU8Wn-vf7q-9k2K-FkPv-jAa0-maE4-j0hhws
>>> raid_1 pruebas 2 -wi-ao 1,20g -1 -1 254 4
>>> QNeoem-z16n-Y2lo-NAfk-j90k-Cn3v-jRWiD0
>>> raid_2 pruebas 2 -wi-ao 1,20g -1 -1 254 3
>>> jWxAgs-fJUL-MZHs-1hdb-kH7r-uwfC-VAsCwl
>>> raid_3 pruebas 2 -wi-ao 1,20g -1 -1 254 5
>>> KZzQuM-oNGb-JkpI-Ec3L-t0L1-0Tgt-EGg5u3
>>> raid_4 pruebas 2 -wi-ao 1,20g -1 -1 254 6
>>> rNISVA-lM5R-ocxG-bWjn-xbmW-1Nv4-Wg9KwG
>>> raid_5 pruebas 2 -wi-ao 1,20g -1 -1 254 7
>>> nglL2n-2hIH-F7qE-rT89-mdfv-BBAm-Llu8dL
>>>
>>> Después hice dos Raid5 con tres discos cada uno de los anteriores,
>>> quedando como se muestra aquí:
>>>
>>>
>>> servidor:/home/jesus/Desktop# mdadm -D /dev/md/raid_
>>> raid_espejo raid_tipo_5 raid_tipo_5_1
>>>
>>> Y cada uno de estos de la manera siguiente:
>>>
>>>
>>> servidor:/home/jesus/Desktop# mdadm -D /dev/md/raid_tipo_5
>>> /dev/md/raid_tipo_5:
>>> Version : 1.2
>>> Creation Time : Tue Aug 9 17:50:55 2011
>>> Raid Level : raid5
>>> Array Size : 1048064 (1023.67 MiB 1073.22 MB)
>>> Used Dev Size : 1048064 (1023.67 MiB 1073.22 MB)
>>> Raid Devices : 2
>>> Total Devices : 3
>>> Persistence : Superblock is persistent
>>>
>>> Update Time : Tue Aug 9 20:51:44 2011
>>> State : clean
>>> Active Devices : 2
>>> Working Devices : 3
>>> Failed Devices : 0
>>> Spare Devices : 1
>>>
>>> Layout : left-symmetric
>>> Chunk Size : 512K
>>>
>>> Name : servidor:raid_tipo_5 (local to host servidor)
>>> UUID : 521248fc:1da22097:0455af6d:1eff4668
>>> Events : 36
>>>
>>> Number Major Minor RaidDevice State
>>> 0 254 2 0 active sync /dev/dm-2
>>> 3 254 4 1 active sync /dev/dm-4
>>>
>>> 2 254 3 - spare /dev/dm-3
>>>
>>>
>>> servidor:/home/jesus/Desktop# mdadm -D /dev/md/raid_tipo_5_1
>>> /dev/md/raid_tipo_5_1:
>>> Version : 1.2
>>> Creation Time : Tue Aug 9 18:00:24 2011
>>> Raid Level : raid5
>>> Array Size : 1048064 (1023.67 MiB 1073.22 MB)
>>> Used Dev Size : 1048064 (1023.67 MiB 1073.22 MB)
>>> Raid Devices : 2
>>> Total Devices : 3
>>> Persistence : Superblock is persistent
>>>
>>> Update Time : Tue Aug 9 20:34:48 2011
>>> State : clean
>>> Active Devices : 2
>>> Working Devices : 3
>>> Failed Devices : 0
>>> Spare Devices : 1
>>>
>>> Layout : left-symmetric
>>> Chunk Size : 512K
>>>
>>> Name : servidor:raid_tipo_5_1 (local to host servidor)
>>> UUID : 0849ecc2:b212613f:99770fb7:3127d8a5
>>> Events : 46
>>>
>>> Number Major Minor RaidDevice State
>>> 0 254 5 0 active sync /dev/dm-5
>>> 3 254 6 1 active sync /dev/dm-6
>>>
>>> 2 254 7 - spare /dev/dm-7
>>>
>>>
>>> servidor:/home/jesus/Desktop# mdadm -D /dev/md/raid_espejo
>>> /dev/md/raid_espejo:
>>> Version : 1.2
>>> Creation Time : Tue Aug 9 18:03:54 2011
>>> Raid Level : raid1
>>> Array Size : 1048052 (1023.66 MiB 1073.21 MB)
>>> Used Dev Size : 1048052 (1023.66 MiB 1073.21 MB)
>>> Raid Devices : 2
>>> Total Devices : 2
>>> Persistence : Superblock is persistent
>>>
>>> Update Time : Tue Aug 9 20:34:47 2011
>>> State : clean
>>> Active Devices : 2
>>> Working Devices : 2
>>> Failed Devices : 0
>>> Spare Devices : 0
>>>
>>> Name : servidor:raid_espejo (local to host servidor)
>>> UUID : 4955a1db:d51bad89:29c0b425:744b0a2f
>>> Events : 34
>>>
>>> Number Major Minor RaidDevice State
>>> 0 9 127 0 active sync
>>> /dev/md/raid_tipo_5
>>> 1 9 126 1 active sync
>>> /dev/md/raid_tipo_5_1
>>>
>>> En definitiva, creo que ha quedado más o menos como un Raid1(espejo)
>>> de dos Raid5 de 3 discos cada uno y estos pertenecientes a un LVM
>>> llamado pruebas ¿?
>>>
>>> Bien, lo monto y todo va bien:
>>>
>>>
>>> servidor:/home/jesus/Desktop# df -lh /media/espejo/
>>> S.ficheros Size Used Avail Use% Montado en
>>> /dev/md125 1008M 642M 367M 64% /media/espejo
>>>
>>> La cuestión es que yo cree el volumen lógico (VG), con el máximo de
>>> cada disco, haciendo una partición del tipo y quedando de esta guisa:
>>>
>>> servidor:/home/jesus/Desktop# pvdisplay -Cv
>>> Scanning for physical volume names
>>> PV VG Fmt Attr PSize PFree DevSize PV UUID
>>> /dev/sdc6 multimedia lvm2 a- 17,23g 0 17,24g
>>> 3XCU6P-KcTp-kNou-V1Bv-4j2T-1uk2-reN7Al
>>> /dev/sdd1 multimedia lvm2 a- 1,82t 348,25g 1,82t
>>> HDEHST-8eSF-xZoJ-W208-soAd-jnro-IX20HM
>>> /dev/sdf1 pruebas lvm2 a- 3,84g 260,00m 3,84g
>>> L4rGid-B1k5-wDq8-irRh-fv0T-SVIH-i7Ox9n
>>> /dev/sdg1 pruebas lvm2 a- 3,73g 144,00m 3,73g
>>> CC1Jzz-TbqF-aNQd-IFXY-ex2n-zde5-z93wSl
>>> /dev/sdh1 pruebas lvm2 a- 3,73g 3,73g 3,73g
>>> xsRPbn-e6S2-YM9U-6i3h-dey3-iJRW-V54pk3
>>> /dev/sdi1 pruebas lvm2 a- 3,73g 3,73g 3,73g
>>> R0md6F-SvC4-ZMuX-wF5d-3rGO-CDvF-hSLcAs
>>> /dev/sdj1 pruebas lvm2 a- 248,00m 248,00m 249,76m
>>> gbWYWd-Ouf6-OpZm-JAeI-k6o2-dGd5-I0FXkC
>>>
>>> Bueno, al crear los volumenes lógicos use esto:
>>>
>>> lvcreate -L +1G pruebas -n raid_2
>>>
>>> Y así con las 6 particiones lógicas, después con:
>>>
>>> lvextend -L +200M /dev/pruebas/...
>>>
>>> Aumenté el tamaño disponible de cada partición lógica.
>>>
>>> Como ya dije todo va bien, aquí os dejo un pantallazo:
>>>
>>> http://vivimosdelaire.org/Debian/LVM-Raid/Pantallazo.png
>>>
>>> Bien, al intentar aumentar el tamaño disponible de cada volumen
>>> lógico, me da error. La secuencia que aplico es:
>>>
>>> 1.- Desmonto el Raid1
>>> .- umount /media/espejo
>>>
>>> 2.- Paro los Raid1 y Raid5
>>> .- mdadm -S /dev/md/raid_espejo
>>> .- mdadm -S /dev/md/raid_tipo_5
>>> .- mdadm -S /dev/md/raid_tipo_5_1
>>>
>>> Me da este error en cada disco:
>>>
>>> servidor:/home/jesus/Desktop# resize2fs -p /dev/pruebas/raid
>>> resize2fs 1.41.12 (17-May-2010)
>>> Resizing the filesystem on /dev/pruebas/raid to 313344 (4k) blocks.
>>> resize2fs: Can't read an block bitmap mientras se intentaba modificar
>>> el tamaño /dev/pruebas/raid
>>> Please run 'e2fsck -fy /dev/pruebas/raid' to fix the filesystem
>>> after the aborted resize operation.
>>>
>>> servidor:/home/jesus/Desktop# e2fsck -fy /dev/pruebas/raid
>>> e2fsck 1.41.12 (17-May-2010)
>>> e2fsck: Los descriptores de los grupos parecen dañados... intentando
>>> los bloques de respaldo...
>>> e2fsck: Bad magic number in super-block when using the backup blocks
>>> e2fsck: going back to original superblock
>>> e2fsck: Dispositivo o recurso ocupado mientras se intentaba abrir
>>> /dev/pruebas/raid
>>> ¿Sistema de ficheros montado o abierto en exclusiva por otro programa?
>>>
>>> Aquí ya me pierdo, está claro que hay algo que no encaja, pero se me
>>> despista. ¿Me podeis ayudar.?
>>>
>>> S2/BR
>>>
>>>
>> Corrígeme si me equivoco, ¿tiene dos raid 5 y ademas montas un raid 1
>> espejo entre los dos discos resultantes del raid 5??? si es así lo
>> primero que te recomendaría es leer en la web del proyecto sobre si
>> este tipo de configuración es permitido!!!! porque tienes montado un
>> castillo que no me convence!!!!
>>
>> ¿porque vas a montar espejo sobre un raid que ya de por sí crear los
>> bits de paridad en cada disco?
> Quizás debería pensar en un Raid 10 si quiere espejar dos raid
>>
>> ¿si quieres doble paridad por mayor seguridad, monta un raid 6?
>> aunque será mas lento,, ufff y no sé que desemepeño te dará montar
>> esto sobre discos usb,, depende de la carga de trabajo que le vayas a
>> dar.
>>
>> ¿Raid sobre LVM? están confundiendo terminos!!!! mas bien sería que
>> montes el RAID a partir de los discos y luego definas los volúmenes
>> que quieres...
>
> A lo sumo monta el raid y sobre el raid crea el LVM para poder "jugar"
> con las particiones a gusto
>>
>>
>>
>
>
Hola,
tanto mdadm como LVM aceptan cualquier dispositivo de bloques para
trabajar, de modo que cualquiera de las configuraciones es válida, otra
cosa es que sea mas o menos útil y desde luego lo que ha montado este
individuo es una paja mental.
En cualquier caso, respondiendo al mensaje principal, resize2fs y e2fsck
se usan sobre un sistema de archivos ext2 o ext3, no para resiar el
tamaño de un LV, tienes que ejecutarlo sobre /dev/md125 y desde luego no
tienes que desmontar el raid, de hecho ni siquiera tienes que desmontar
la partición porque puedes hacerlo en caliente, el resize2fs digo, el
e2fsck -fy por supuesto no.
Un saludo.
Reply to: