Re: limite de RAM par processus ?
On Mon, 03 Jan, 2000 à 07:59:50PM +0100, Pierre Blanchet wrote:
> > On Mon, 03 Jan, 2000 à 05:43:51PM -0000, Alexandre Meynaud wrote:
> > > la taille de la memoire virtuelle (donnee par "ulimit -a" ->vmemory). Si
> > > celle-ci est de 1Go (valeur assez usuelle) ca peut expliquer pourquoi le
> > > process plante vers 950 Mo...
> > >
> > Bonne idée mais ce n'est pas ça :
> >
> > $ ulimit -a
> ...
>
> C'est une limitation du noyau, il me semble. Bien que l'option de
> compilation s'appelle 'Maximum Physical Memory', elle est par defaut dans
> mon 2.2.13 a 1Go ce qui a l'air de coller avec ton probleme.
>
A mon avis, cette limite porte sur la mémoire physique, ici il s'agit de
mémoire virtuelle (bcp moins chère). De plus comme j'avais tué X et divers
démons, il me serait quand même resté une petite centaine de Mo même si
c'était la cause du problème
> De toute facon avec plus d'1 Go de RAM, tu as trop de RAM ;)
>
> Pierre (qui pleure sur ses petits 128 Mo).
>
Mais moi aussi je n'ai que 128 Mo de RAM. Mais comme j'ai été étonné de voir
que mon script s'avérait si gourmand (j'escomptait une consommation RAM de
200 à 250 Mo...) j'ai ajouté bcp de swap pour voir à quel point j'ai mal
compris les structures de données de perl. Ceci dit à part quand je
programme comme un sagouin mes 128 Mo + 96 Mo de swap me suffisent amplement
la plupart du temps donc, arrête de pleurer ;-)
--
( >- Laurent PICOULEAU -< )
/~\ lcrpic@a2points.com /~\
| \) Linux : mettez un pingouin dans votre ordinateur ! (/ |
\_|_ Seuls ceux qui ne l'utilisent pas en disent du mal. _|_/
Reply to: