[Date Prev][Date Next] [Thread Prev][Thread Next] [Date Index] [Thread Index]

Re: Consulta sobre Raid.




El vie., 9 nov. 2018 a las 17:07, Matias Mucciolo (<mmucciolo@suteba.org.ar>) escribió:

On Friday, November 9, 2018 5:01:25 PM -03 Robert J. Briones C. wrote:
> El vie., 9 nov. 2018 a las 16:50, Matias Mucciolo
> (<mmucciolo@suteba.org.ar>)
> escribió:
> > On Friday, November 9, 2018 4:47:48 PM -03 Robert J. Briones C. wrote:
> > > El vie., 9 nov. 2018 a las 16:45, Matias Mucciolo
> > > (<mmucciolo@suteba.org.ar>)
> > >
> > > escribió:
> > > > On Friday, November 9, 2018 4:40:46 PM -03 Robert J. Briones C. wrote:
> > > > > El vie., 9 nov. 2018 a las 16:24, Matias Mucciolo
> > > > > (<mmucciolo@suteba.org.ar>)
> > > > >
> > > > > escribió:
> > > > > > On Friday, November 9, 2018 12:41:04 PM -03 Robert J. Briones C.
> >
> > wrote:
> > > > > > > Estimados.
> > > > > > >
> > > > > > > Buenos dias,
> > > > > > >
> > > > > > > tengo un pequeño servidor montado de manera normal (novato).
> > > > > > >
> > > > > > > y necesito sacar información de otro disco duro que he
> > > > > > > conectado,
> > > >
> > > > pero
> > > >
> > > > > > > parece que esta en RAID y de Raid no se prácticamente nada.
> > > > > > >
> > > > > > > fdisk .l :
> > > > > > >
> > > > > > > Device       Start        End    Sectors  Size Type
> > > > > > > /dev/sdb1     2048       4095       2048    1M BIOS boot
> > > > > > > /dev/sdb2     4096    1048575    1044480  510M Linux RAID
> > > > > > > /dev/sdb3  1048576 1953523711 1952475136  931G Linux RAID
> > > > > > > la que quiero montar es la /dev/sdb3
> > > > > > >
> > > > > > > solo quiero sacar unos datos de ahí, es posible de manera fácil,
> >
> > sin
> >
> > > > > > tener
> > > > > >
> > > > > > > que montar un raid completo o algo así ?
> > > > > > >
> > > > > > > se los agradecería.
> > > > > > >
> > > > > > > Saludos.
> > > > > >
> > > > > > Buenas
> > > > > > no te detecta el raid ya ?
> > > > > > pasate la salida del comando:
> > > > > >
> > > > > > cat /proc/mdstat
> > > > > >
> > > > > > si no existe el archivo o esta vacio ejemplo:
> > > > > > cat /proc/mdstat
> > > > > > Personalities :
> > > > > > unused devices: <none>
> > > > > >
> > > > > > sabes que raid tenia ? suponiendo que es RAID1
> > > > > > carga el modulo raid1 ejemplo
> > > > > > modprobe raid1
> > > > > > y volve a mirar el archivo anterior.
> > > > > >
> > > > > >
> > > > > > saludos
> > > > > > Matias
> > > > >
> > > > > cat /proc/mdstat
> > > > > Personalities : [raid1]
> > > > > md1 : active (auto-read-only) raid1 sdb3[5]
> > > > >
> > > > >       976106304 blocks super 1.2 [3/1] [__U]
> > > > >
> > > > > md0 : active (auto-read-only) raid1 sdb2[5]
> > > > >
> > > > >       521920 blocks super 1.2 [3/1] [__U]
> > > > >
> > > > > eso quiere decir que esta montado ? como debería acceder a sus datos
> >
> > ?
> >
> > > > > Saludos.
> > > >
> > > > (acordate de contestar a la lista principalmente.)
> > > >
> > > > eso es bueno...ahora podes montarla usando el device de raid
> > > > en este caso es /dev/md1 para la particion sdb3
> > > >
> > > > ejemplo
> > > >
> > > > mount /dev/md1 /mnt
> > > >
> > > > deberia montarlo en el dir /mnt.. si ves que no lo monta mira el dmesg
> > > > y los logs buscando errores.
> > > >
> > > > saludos
> > > > Matias.-
> > >
> > > mount /dev/md1 /mnt/raid
> > > mount: unknown filesystem type 'LVM2_member'
> > >
> > > intento montar y me aparece eso .
> >
> > oh jajaja ahora vas a tener que pelear con lvm
> >
> > pasate la salida de los comandos
> > pvdisplay y lvdisplay
> >
> > Matias
>
> jajaja, siempre a mi !!., jaja
>
> ejecute lo que me dijiste pero me dice
>
> bash: pvdisplay: no se encontró la orden
> bash: lvdisplay: no se encontró la orden
>
> y en los paquetes no esta tampoco .-
>
> estoy haciendo algo mal ?
>
> saludos.

esos comandos vienen en el paquete lvm2
trata de instalar ese paquete y despues
si es posible renicia la maquina
asi te levanta automaticamente los lvm
y despues is ejecuta los comandos esos.

si no podes reniciar la maquina
vas a tener que levantar el lvm a mano
que ahora no recuerdo pero supongo que seria
con vgscan o algo asi

Buenos dias a todos.

retomando este tema, instale Lvm2 y ejecute los comandos... este es el resultado.


pvdisplay
  --- Physical volume ---
  PV Name               /dev/md1
  VG Name               pve
  PV Size               930,89 GiB / not usable 4,81 MiB
  Allocatable           yes
  PE Size               4,00 MiB
  Total PE              238306
  Free PE               4062
  Allocated PE          234244
  PV UUID               OAwnHT-rz8q-goQK-nb6X-xu4I-24r6-8jfMjq
  

 lvdisplay
  --- Logical volume ---
  LV Path                /dev/pve/swap
  LV Name                swap
  VG Name                pve
  LV UUID                ifrkAs-AIlb-ok29-xGPH-A9ij-T9T5-pxW7kr
  LV Write Access        read/write
  LV Creation host, time proxmox, 2014-08-19 05:53:15 -0400
  LV Status              available
  # open                 0
  LV Size                7,00 GiB
  Current LE             1792
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     256
  Block device           253:0

  --- Logical volume ---
  LV Path                /dev/pve/root
  LV Name                root
  VG Name                pve
  LV UUID                9nLTLX-zc66-G5f9-j9jR-hdd5-CWBP-9jxS4e
  LV Write Access        read/write
  LV Creation host, time proxmox, 2014-08-19 05:53:15 -0400
  LV Status              available
  # open                 0
  LV Size                96,00 GiB
  Current LE             24576
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     256
  Block device           253:1

  --- Logical volume ---
  LV Path                /dev/pve/data
  LV Name                data
  VG Name                pve
  LV UUID                XRfi89-12J9-q1Dy-FGPB-5b5f-59oC-ODBeRl
  LV Write Access        read/write
  LV Creation host, time proxmox, 2014-08-19 05:53:15 -0400
  LV Status              available
  # open                 0
  LV Size                812,02 GiB
  Current LE             207876
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     256
  Block device           253:2

Saludos.

Reply to: