[Date Prev][Date Next] [Thread Prev][Thread Next] [Date Index] [Thread Index]

Re: Sobre LVM y Raid



El 10/08/11 14:11, Federico Alberto Sayd escribió:
> El 10/08/11 03:55, ZorroPlateado escribió:
>> El 09/08/11 21:18, Jesús Genicio escribió:
>>> Hola a tod@s!!!
>>>
>>> A ver si con vuestra inestimable ayuda termino de hacer las pruebas
>>> que estoy realizando, para poder de una vez poner mi idea en marcha.
>>>
>>> El escenario es el siguiente:
>>>
>>>
>>> servidor:/home/jesus/Desktop# vgdisplay -Cv
>>>      Finding all volume groups
>>>      Finding volume group "pruebas"
>>>      Finding volume group "multimedia"
>>>    VG         Attr   Ext   #PV #LV #SN VSize  VFree   VG UUID
>>>    multimedia wz--n- 4,00m   2   2   0  1,84t 348,25g
>>> pzLB28-pcpI-TqWL-NHLa-hpad-k15X-5E2adt
>>>    pruebas    wz--n- 4,00m   5   6   0 15,26g   8,29g
>>> 6CZaOa-z20f-arOU-Ah7X-f05o-DNSL-TsxxhM
>>>
>>> El que me interesa para la consulta es el vg=pruebas, que consta de 3
>>> llaves usb de 4 Gb iguales(misma marca), otra de 4Gb y una de 256 Mb
>>> como se ve aquí:
>>>
>>> servidor:/home/jesus/Desktop# lvdisplay -Cv pruebas
>>>      Using logical volume(s) on command line
>>>    LV     VG      #Seg Attr   LSize Maj Min KMaj KMin Origin Snap%
>>> Move Copy%  Log Convert LV UUID
>>>    raid   pruebas    2 -wi-ao 1,20g  -1  -1 254  2
>>>                      GfU8Wn-vf7q-9k2K-FkPv-jAa0-maE4-j0hhws
>>>    raid_1 pruebas    2 -wi-ao 1,20g  -1  -1 254  4
>>>                      QNeoem-z16n-Y2lo-NAfk-j90k-Cn3v-jRWiD0
>>>    raid_2 pruebas    2 -wi-ao 1,20g  -1  -1 254  3
>>>                      jWxAgs-fJUL-MZHs-1hdb-kH7r-uwfC-VAsCwl
>>>    raid_3 pruebas    2 -wi-ao 1,20g  -1  -1 254  5
>>>                      KZzQuM-oNGb-JkpI-Ec3L-t0L1-0Tgt-EGg5u3
>>>    raid_4 pruebas    2 -wi-ao 1,20g  -1  -1 254  6
>>>                      rNISVA-lM5R-ocxG-bWjn-xbmW-1Nv4-Wg9KwG
>>>    raid_5 pruebas    2 -wi-ao 1,20g  -1  -1 254  7
>>>                      nglL2n-2hIH-F7qE-rT89-mdfv-BBAm-Llu8dL
>>>
>>> Después hice dos Raid5 con tres discos cada uno de los anteriores,
>>> quedando como se muestra aquí:
>>>
>>>
>>> servidor:/home/jesus/Desktop# mdadm -D /dev/md/raid_
>>> raid_espejo    raid_tipo_5    raid_tipo_5_1
>>>
>>> Y cada uno de estos de la manera siguiente:
>>>
>>>
>>> servidor:/home/jesus/Desktop# mdadm -D /dev/md/raid_tipo_5
>>> /dev/md/raid_tipo_5:
>>>          Version : 1.2
>>>    Creation Time : Tue Aug  9 17:50:55 2011
>>>       Raid Level : raid5
>>>       Array Size : 1048064 (1023.67 MiB 1073.22 MB)
>>>    Used Dev Size : 1048064 (1023.67 MiB 1073.22 MB)
>>>     Raid Devices : 2
>>>    Total Devices : 3
>>>      Persistence : Superblock is persistent
>>>
>>>      Update Time : Tue Aug  9 20:51:44 2011
>>>            State : clean
>>>   Active Devices : 2
>>> Working Devices : 3
>>>   Failed Devices : 0
>>>    Spare Devices : 1
>>>
>>>           Layout : left-symmetric
>>>       Chunk Size : 512K
>>>
>>>             Name : servidor:raid_tipo_5  (local to host servidor)
>>>             UUID : 521248fc:1da22097:0455af6d:1eff4668
>>>           Events : 36
>>>
>>>      Number   Major   Minor   RaidDevice State
>>>         0     254        2        0      active sync   /dev/dm-2
>>>         3     254        4        1      active sync   /dev/dm-4
>>>
>>>         2     254        3        -      spare   /dev/dm-3
>>>
>>>
>>> servidor:/home/jesus/Desktop# mdadm -D /dev/md/raid_tipo_5_1
>>> /dev/md/raid_tipo_5_1:
>>>          Version : 1.2
>>>    Creation Time : Tue Aug  9 18:00:24 2011
>>>       Raid Level : raid5
>>>       Array Size : 1048064 (1023.67 MiB 1073.22 MB)
>>>    Used Dev Size : 1048064 (1023.67 MiB 1073.22 MB)
>>>     Raid Devices : 2
>>>    Total Devices : 3
>>>      Persistence : Superblock is persistent
>>>
>>>      Update Time : Tue Aug  9 20:34:48 2011
>>>            State : clean
>>>   Active Devices : 2
>>> Working Devices : 3
>>>   Failed Devices : 0
>>>    Spare Devices : 1
>>>
>>>           Layout : left-symmetric
>>>       Chunk Size : 512K
>>>
>>>             Name : servidor:raid_tipo_5_1  (local to host servidor)
>>>             UUID : 0849ecc2:b212613f:99770fb7:3127d8a5
>>>           Events : 46
>>>
>>>      Number   Major   Minor   RaidDevice State
>>>         0     254        5        0      active sync   /dev/dm-5
>>>         3     254        6        1      active sync   /dev/dm-6
>>>
>>>         2     254        7        -      spare   /dev/dm-7
>>>
>>>
>>> servidor:/home/jesus/Desktop# mdadm -D /dev/md/raid_espejo
>>> /dev/md/raid_espejo:
>>>          Version : 1.2
>>>    Creation Time : Tue Aug  9 18:03:54 2011
>>>       Raid Level : raid1
>>>       Array Size : 1048052 (1023.66 MiB 1073.21 MB)
>>>    Used Dev Size : 1048052 (1023.66 MiB 1073.21 MB)
>>>     Raid Devices : 2
>>>    Total Devices : 2
>>>      Persistence : Superblock is persistent
>>>
>>>      Update Time : Tue Aug  9 20:34:47 2011
>>>            State : clean
>>>   Active Devices : 2
>>> Working Devices : 2
>>>   Failed Devices : 0
>>>    Spare Devices : 0
>>>
>>>             Name : servidor:raid_espejo  (local to host servidor)
>>>             UUID : 4955a1db:d51bad89:29c0b425:744b0a2f
>>>           Events : 34
>>>
>>>      Number   Major   Minor   RaidDevice State
>>>         0       9      127        0      active sync  
>>> /dev/md/raid_tipo_5
>>>         1       9      126        1      active sync  
>>> /dev/md/raid_tipo_5_1
>>>
>>> En definitiva, creo que ha quedado más o menos como un Raid1(espejo)
>>> de dos Raid5 de 3 discos cada uno y estos pertenecientes a un LVM
>>> llamado pruebas ¿?
>>>
>>> Bien, lo monto y todo va bien:
>>>
>>>
>>> servidor:/home/jesus/Desktop# df -lh /media/espejo/
>>> S.ficheros            Size  Used Avail Use% Montado en
>>> /dev/md125           1008M  642M  367M  64% /media/espejo
>>>
>>> La cuestión es que yo cree el volumen lógico (VG), con el máximo de
>>> cada disco, haciendo una partición del tipo y quedando de esta guisa:
>>>
>>> servidor:/home/jesus/Desktop# pvdisplay -Cv
>>>      Scanning for physical volume names
>>>    PV         VG         Fmt  Attr PSize   PFree   DevSize PV UUID
>>>    /dev/sdc6  multimedia lvm2 a-    17,23g      0   17,24g
>>> 3XCU6P-KcTp-kNou-V1Bv-4j2T-1uk2-reN7Al
>>>    /dev/sdd1  multimedia lvm2 a-     1,82t 348,25g   1,82t
>>> HDEHST-8eSF-xZoJ-W208-soAd-jnro-IX20HM
>>>    /dev/sdf1  pruebas    lvm2 a-     3,84g 260,00m   3,84g
>>> L4rGid-B1k5-wDq8-irRh-fv0T-SVIH-i7Ox9n
>>>    /dev/sdg1  pruebas    lvm2 a-     3,73g 144,00m   3,73g
>>> CC1Jzz-TbqF-aNQd-IFXY-ex2n-zde5-z93wSl
>>>    /dev/sdh1  pruebas    lvm2 a-     3,73g   3,73g   3,73g
>>> xsRPbn-e6S2-YM9U-6i3h-dey3-iJRW-V54pk3
>>>    /dev/sdi1  pruebas    lvm2 a-     3,73g   3,73g   3,73g
>>> R0md6F-SvC4-ZMuX-wF5d-3rGO-CDvF-hSLcAs
>>>    /dev/sdj1  pruebas    lvm2 a-   248,00m 248,00m 249,76m
>>> gbWYWd-Ouf6-OpZm-JAeI-k6o2-dGd5-I0FXkC
>>>
>>> Bueno, al crear los volumenes lógicos use esto:
>>>
>>> lvcreate -L +1G pruebas -n raid_2
>>>
>>> Y así con las 6 particiones lógicas, después con:
>>>
>>> lvextend -L +200M /dev/pruebas/...
>>>
>>> Aumenté el tamaño disponible de cada partición lógica.
>>>
>>> Como ya dije todo va bien, aquí os dejo un pantallazo:
>>>
>>> http://vivimosdelaire.org/Debian/LVM-Raid/Pantallazo.png
>>>
>>> Bien, al intentar aumentar el tamaño disponible de cada volumen
>>> lógico, me da error. La secuencia que aplico es:
>>>
>>> 1.- Desmonto el Raid1
>>>      .- umount /media/espejo
>>>
>>> 2.- Paro los Raid1 y Raid5
>>>     .- mdadm -S /dev/md/raid_espejo
>>>    .-  mdadm -S /dev/md/raid_tipo_5
>>>    .-  mdadm -S /dev/md/raid_tipo_5_1
>>>
>>> Me da este error en cada disco:
>>>
>>> servidor:/home/jesus/Desktop# resize2fs -p /dev/pruebas/raid
>>> resize2fs 1.41.12 (17-May-2010)
>>> Resizing the filesystem on /dev/pruebas/raid to 313344 (4k) blocks.
>>> resize2fs: Can't read an block bitmap mientras se intentaba modificar
>>> el tamaño /dev/pruebas/raid
>>> Please run 'e2fsck -fy /dev/pruebas/raid' to fix the filesystem
>>> after the aborted resize operation.
>>>
>>> servidor:/home/jesus/Desktop# e2fsck -fy /dev/pruebas/raid
>>> e2fsck 1.41.12 (17-May-2010)
>>> e2fsck: Los descriptores de los grupos parecen dañados... intentando
>>> los bloques de respaldo...
>>> e2fsck: Bad magic number in super-block when using the backup blocks
>>> e2fsck: going back to original superblock
>>> e2fsck: Dispositivo o recurso ocupado mientras se intentaba abrir
>>> /dev/pruebas/raid
>>> ¿Sistema de ficheros montado o abierto en exclusiva por otro programa?
>>>
>>> Aquí ya me pierdo, está claro que hay algo que no encaja, pero se me
>>> despista. ¿Me podeis ayudar.?
>>>
>>> S2/BR
>>>
>>>
>> Corrígeme si me equivoco, ¿tiene dos raid 5 y ademas montas un raid 1
>> espejo entre los dos discos resultantes del raid 5??? si es así lo
>> primero que te recomendaría es leer en la web del proyecto sobre si
>> este tipo de configuración es permitido!!!! porque tienes montado un
>> castillo que no me convence!!!!
>>
>> ¿porque vas a montar espejo sobre un raid que ya de por sí crear los
>> bits de paridad en cada disco?
> Quizás debería pensar en un Raid 10 si quiere espejar dos raid
>>
>> ¿si quieres doble paridad por mayor seguridad, monta un raid 6?
>> aunque será mas lento,, ufff y no sé que desemepeño te dará montar
>> esto sobre discos usb,, depende de la carga de trabajo que le vayas a
>> dar.
>>
>> ¿Raid sobre LVM? están confundiendo terminos!!!! mas bien sería que
>> montes el RAID a partir de los discos y luego definas los volúmenes
>> que quieres...
>
> A lo sumo monta el raid y sobre el raid crea el LVM para poder "jugar"
> con las particiones a gusto
>>
>>
>>
>
>


Hola,

tanto mdadm como LVM aceptan cualquier dispositivo de bloques para
trabajar, de modo que cualquiera de las configuraciones es válida, otra
cosa es que sea mas o menos útil y desde luego lo que ha montado este
individuo es una paja mental.

En cualquier caso, respondiendo al mensaje principal, resize2fs y e2fsck
se usan sobre un sistema de archivos ext2 o ext3, no para resiar el
tamaño de un LV, tienes que ejecutarlo sobre /dev/md125 y desde luego no
tienes que desmontar el raid, de hecho ni siquiera tienes que desmontar
la partición porque puedes hacerlo en caliente, el resize2fs digo, el
e2fsck -fy por supuesto no.

Un saludo.


Reply to: