[Date Prev][Date Next] [Thread Prev][Thread Next] [Date Index] [Thread Index]

Re: Problemas de espaço livre em partições lvm




On Mon, 2007-12-03 at 09:03 -0200, Rondineli Gama Saad wrote:
Fernando Faria Mariano wrote:
> Bom dia... conforme pedido segue abaixo a saida dos comando df -h, 
> lvdisplay, vgs e lvs.
>
>
> Acredito que o retorno do comando "check_disk" do nagios2 esteja 
> enviando DISK CRITICAL seja pelo espaço livre em /var... o que vocês 
> acham???
>
>
>
>
> SAIDA DO COMANDO df -h
>
> lmbsv:/home/remoto# df -h
> Sist. Arq.            Tam   Usad Disp  Uso% Montado em
> /dev/mapper/lmbsv-root
>                       1,7G  457M  1,2G  28% /
> tmpfs                 744M     0  744M   0%

> udev                   10M   36K   10M   1% /dev
> tmpfs                 744M     0  744M   0% /dev/shm
> /dev/sda1             236M   19M  206M   9% /boot
> /dev/mapper/lmbsv-home
>                       984M   67M  878M   8% /home
> /dev/mapper/lmbsv-tmp
>                       380M   12M  349M   4% /tmp
> /dev/mapper/lmbsv-usr
>                       4,7G  811M  3,7G  18% /usr
> /dev/mapper/lmbsv-var
>                        19G   17G  862M  96% /var
> /dev/mapper/lmbsv-compart
>                        46G   19G   25G  43% /compart
>
>
>
>
>
> SAIDA DO COMANDO lvdisplay
>
> lmbsv:/home/remoto# lvdisplay
>   --- Logical volume ---
>   LV Name                /dev/lmbsv/root
>   VG Name                lmbsv
>   LV UUID                nXlUi7-iflj-I9pF-a8EL-bsyJ-NpLk-cz1Weo
>   LV Write Access        read/write
>   LV Status              available
>   # open                 1
>   LV Size                1,73 GB
>   Current LE             444
>   Segments               2
>   Allocation             inherit
>   Read ahead sectors     0
>   Block device           254:0
>
>   --- Logical volume ---
>   LV Name                /dev/lmbsv/usr
>   VG Name                lmbsv
>   LV UUID                crivFT-61eU-q7h3-0RVX-f55Q-hEdL-TkScKU
>   LV Write Access        read/write
>   LV Status              available
>   # open                 1
>   LV Size                4,77 GB
>   Current LE             1221
>   Segments               1
>   Allocation             inherit
>   Read ahead sectors     0
>   Block device           254:1
>
>   --- Logical volume ---
>   LV Name                /dev/lmbsv/var
>   VG Name                lmbsv
>   LV UUID                ce0ejt-rXo2-TdWS-mwz6-S8Qg-ptyS-duGGjq
>   LV Write Access        read/write
>   LV Status              available
>   # open                 1
>   LV Size                18,98 GB
>   Current LE             4858
>   Segments               4
>   Allocation             inherit
>   Read ahead sectors     0
>   Block device           254:2
>
>   --- Logical volume ---
>   LV Name                /dev/lmbsv/swap_1
>   VG Name                lmbsv
>   LV UUID                ehXLZs-PFP8-gQ8X-5Mw9-4szj-v18P-8mTMDi
>   LV Write Access        read/write
>   LV Status              available
>   # open                 2
>   LV Size                1,38 GB
>   Current LE             353
>   Segments               1
>   Allocation             inherit
>   Read ahead sectors     0
>   Block device           254:3
>
>   --- Logical volume ---
>   LV Name                /dev/lmbsv/tmp
>   VG Name                lmbsv
>   LV UUID                3FmF11-JM3B-Nvle-XluE-ieOx-bTaN-Cd9Flz
>   LV Write Access        read/write
>   LV Status              available
>   # open                 1
>   LV Size                392,00 MB
>   Current LE             98
>   Segments               1
>   Allocation             inherit
>   Read ahead sectors     0
>   Block device           254:4
>
>   --- Logical volume ---
>   LV Name                /dev/lmbsv/home
>   VG Name                lmbsv
>   LV UUID                dVS7vv-OP2O-PkXa-hbhR-fGAo-jzjq-MZ0a3z
>   LV Write Access        read/write
>   LV Status              available
>   # open                 1
>   LV Size                1000,00 MB
>   Current LE             250
>   Segments               1
>   Allocation             inherit
>   Read ahead sectors     0
>   Block device           254:5
>
>   --- Logical volume ---
>   LV Name                /dev/lmbsv/compart
>   VG Name                lmbsv
>   LV UUID                4Cgv8C-f30G-G6sc-N9bz-CI0H-sipa-jrsBeP
>   LV Write Access        read/write
>   LV Status              available
>   # open                 1
>   LV Size                46,00 GB
>   Current LE             11776
>   Segments               1
>   Allocation             inherit
>   Read ahead sectors     0
>   Block device           254:6
>
>
>
>
> SAIDA DO COMANDO vgs
>
> lmbsv:/home/remoto# vgs
>   VG    #PV #LV #SN Attr   VSize  VFree
>   lmbsv   1   7   0 wz--n- 74,27G 48,00M
>
>
>
> SAIDA DO COMANDO lvs
>
> lmbsv:/home/remoto# lvs
>   LV      VG    Attr   LSize    Origin Snap%  Move Log Copy%
>   compart lmbsv -wi-ao   46,00G
>   home    lmbsv -wi-ao 1000,00M
>   root    lmbsv -wi-ao    1,73G
>   swap_1  lmbsv -wi-ao    1,38G
>   tmp     lmbsv -wi-ao  392,00M
>   usr     lmbsv -wi-ao    4,77G
>   var     lmbsv -wi-ao   18,98G
>
>
>
> Obrigado
> Fernando Mariano
>
> On Fri, 2007-11-30 at 17:00 -0200, Rondineli Gama Saad wrote:
>> Bruno Schneider wrote:
>> > On Nov 30, 2007 8:43 AM, Fernando Faria Mariano wrote:
>> >   
>> >>  O que achei curioso também é que quando rodo o comando 'df -u' as partições
>> >> tmpfs estão lotadas... mas as outras não, com relativamente bastante espaço
>> >> nelas.
>> >>
>> >>     
>> >
>> > Acho que você quis dizer 'df -h', o meu df não tem a opção '-u'. Me
>> > parece que você está interpretando a saída do df de forma errada. Seu
>> > /dev/shm e /lib/init/rw estão é vazios.
>> >
>> > Não conheço o Nagios, mas pelo df eu diria que ele está reportando o
>> > que há de livre nas partições.
>> >
>> >   
>> Olá,
>> Para que possamos lhe ajudar seria interessante reportar o resultado dos 
>> comandos df -h, lvdisplay, vgs e lvs. Os três últimos comandos mostrará 
>> como está configurado o volume lógico, além do espaço usado por cada um. 
>> Sobre o Nagios, você tem que se atentar ao seguinte fato: o 
>> monitoramento que você está fazdo é dá máquina onde está instalado o 
>> Nagios ou é outra máquinas. Se for outra máquina, você instalou o plugin 
>> NRPE (monitoramento remoto)? Se não o fez a única máquina que você está 
>> monitorando é onde está instalado o Nagios.
>>
>> Abraços
>> Rondineli Saad
>>
>>
>>     
Olá Fernando,
Aparentemente, a mensagem que está aparecendo que o disco está critical 
deve estar aparecendo por conta da definição no arquivo 
/etc/nagios/services.cfg. Vou dar um exemplo:
define service {
        service_description Disk
        is_volatile 0
        check_command check_disk!10!5!/
        max_check_attempts 3
        normal_check_interval 5
        retry_check_interval 2
        check_period 24x7
        notification_interval 240
        notification_period 24x7
        host_name micro1
        notification_options w,u,c,r
        contact_groups infra,celular
}

O parâmetro check_command check_disk!10!5!/ define que se a porcentagem 
de disco restante for de 10% deverei receber notificação de Warning e se 
for de 5% receberei notificação de Critical. Este aviso é para todos os 
discos montados. Portanto a mensagem de Critical deve estar aparecendo 
por conta do diretório /lib/init/rw que está com 0% restante. Para 
solucionar isso você deverá aumentar o tamanho da partição, contudo você 
só tem 48M livre, então você deverá diminuir o tamanho do diretório 
/compart e aumentar o tamanho do /lib/init/rw. Para fazer esta façanha, 
você deve consultar o google que tem ótimos tutoriais sobre o LVM. 
Espero ter ajudado. Abraços

Rondineli Saad



Rodineli você encontrou onde está meu problema... mas acredito que o volume lógico que está se esgotando é o que tem montagem em /var...

copiando novamente a saida de df -h e do nagios de check_disk.

lmbsv:/home/remoto# df -h
Sist. Arq.            Tam   Usad Disp  Uso% Montado em
/dev/mapper/lmbsv-root
                      1,7G  457M  1,2G  28% /
tmpfs                 744M     0  744M   0% /lib/init/rw
udev                   10M   36K   10M   1% /dev
tmpfs                 744M     0  744M   0% /dev/shm
/dev/sda1             236M   19M  206M   9% /boot
/dev/mapper/lmbsv-home
                      984M   67M  878M   8% /home
/dev/mapper/lmbsv-tmp
                      380M   12M  349M   4% /tmp
/dev/mapper/lmbsv-usr
                      4,7G  811M  3,7G  18% /usr
/dev/mapper/lmbsv-var
                       19G   17G  861M  96% /var
/dev/mapper/lmbsv-compart
                       46G   20G   24G  47% /compart

Agora a saída do nagios.
DISK CRITICAL - free space: / 1175 MB (72% inode=96%): /lib/init/rw 743 MB (100% inode=99%): /dev 9 MB (99% inode=99%): /dev/shm 743 MB (100% inode=99%): /boot 205 MB (91% inode=99%): /home 877 MB (92% inode=99%): /tmp 348 MB (96% inode=99%): /usr 3752 MB (82% inode=94%): /var 860 MB (4% inode=99%): /compart 23591 MB (53% inode=


Com a dica do pessoal, percebi que o nagios retorna os valores dos espaços livres (e não de espaço usado como eu havia pensado...) das partições e inodes, veja:
DISK CRITICAL - free space: / 1175 MB (72% inode=96%)

Comparando com a saída de df -h onde o sistema diz 28% de uso, o nagios acusa que esta mesma partição eu tenho 72% livre.

E em /var (onde tenho uma máquina virtual do vmware server, por isso todo este tamanho de 19GB) onde df -h acusa que eu tenho 96% de uso o nagios acusa 4% livre... que é  a partição que está gerando o alarme de crítical, pois ele não chega nem a cinco por cento de espaço livre como vc disse...

Para aumentar o tamanho de um volume lógico certa vez eu tive esta necessidade e consegui descobrir uma maneira (não sei se é a mais facil) de aumentar o tamanho de volumes logicos sem nenhuma perda de dado, caso alguem esteja interessado podem entrar em contato...


Obrigado
Fernando Mariano.



Reply to: