[Date Prev][Date Next] [Thread Prev][Thread Next] [Date Index] [Thread Index]

Re: limite de RAM par processus ?



On Mon, 03 Jan, 2000 à 07:59:50PM +0100, Pierre Blanchet wrote:
> > On Mon, 03 Jan, 2000 à 05:43:51PM -0000, Alexandre Meynaud wrote:
> > > la taille de la memoire virtuelle (donnee par "ulimit -a" ->vmemory). Si
> > > celle-ci est de 1Go (valeur assez usuelle) ca peut expliquer pourquoi le
> > > process plante vers 950 Mo...
> > > 
> > Bonne idée mais ce n'est pas ça :
> > 
> > $ ulimit -a
> ...
> 
> 	C'est une limitation du noyau, il me semble. Bien que l'option de 
> compilation s'appelle 'Maximum Physical Memory', elle est par defaut dans 
> mon 2.2.13 a 1Go ce qui a l'air de coller avec ton probleme.
>
A mon avis, cette limite porte sur la mémoire physique, ici il s'agit de
mémoire virtuelle (bcp moins chère). De plus comme j'avais tué X et divers
démons, il me serait quand même resté une petite centaine de Mo même si
c'était la cause du problème
 
> 	De toute facon avec plus d'1 Go de RAM, tu as trop de RAM ;)
> 
> 	Pierre (qui pleure sur ses petits 128 Mo).
>
Mais moi aussi je n'ai que 128 Mo de RAM. Mais comme j'ai été étonné de voir
que mon script s'avérait si gourmand (j'escomptait une consommation RAM de
200 à 250 Mo...) j'ai ajouté bcp de swap pour voir à quel point j'ai mal
compris les structures de données de perl. Ceci dit à part quand je
programme comme un sagouin mes 128 Mo + 96 Mo de swap me suffisent amplement
la plupart du temps donc, arrête de pleurer ;-) 

-- 
 ( >-   Laurent PICOULEAU                                      -< )
 /~\       lcrpic@a2points.com                                  /~\
|  \)    Linux : mettez un pingouin dans votre ordinateur !    (/  |
 \_|_    Seuls ceux qui ne l'utilisent pas en disent du mal.   _|_/


Reply to: