[Date Prev][Date Next] [Thread Prev][Thread Next] [Date Index] [Thread Index]

Re: Erfahrungsberichte heterogenes Entwickler-Netzwerk



Toens Bueker wrote:

>Matthias Albert <m.albert@sysadmin.aicas.de> meinte:
>
>  
>
>>>?! Wieso wird das nicht lokal auf der Maschine ausgecheckt?
>>>      
>>>
>> 
>>weil es für uns einfacher und bequemer ist. Wir checken
>>unsere Sachen in unserem Home aus, beackern die Files
>>und wenn wir jetzt z.B. auf einer Kiste nen kaputten gdb
>>haben, können wir uns ganz bequem auf einer anderen
>>einloggen und es dort debuggen.
>>    
>>
>
>Ich meinte auch "wieso wird das nicht lokal auf dem Server
>ausgecheckt?". Der Entwickler könnte sich doch auf dem
>Server einloggen und dort - in sein $HOME - seinen
>checkout machen.
>  
>
Das ist richtig. Zumindest würde das den Server nicht mehr durch den
NFSD belasten.

>  
>
>>>Wieviele Platten hast Du (ich würde mal schätzen: zu
>>>wenige). RAID-5 ist an der Stelle natürlich auch nicht
>>>gerade die Rakete. Hat der 3ware Controller einen Cache? 
>>> 
>>>
>>>      
>>>
>>3x250 Gig SATA zu nem Raid5 (466Gig). Cache hat er und ist auch
>>eingeschaltet. Einen "verify" hab ich auch erst laufen
>>lassen, nur um auszuschließen dass ne Platte evtl. defekt ist.
>>    
>>
>
>Hm. Drei Platten sind wirklich nicht die Welt. Wir hatten
>damals für unsere Entwicklungs-Suns immer Diskpacks mit
>schön vielen Platten drin ...
>
>  
>
Das ist natürlich auch immer eine kostenfrage :-). Ne 4te Platte (mehr
würde physikalisch nicht gehen) ist im Moment nicht drin. Aber abgesehen
davon, müsste die Performance im Moment und ein vielfaches höher sein.

>>/c2 Memory Installed  = 2MB
>>    
>>
>
>Ist das nicht ein bisschen wenig?
>
>  
>
mehr gibt der Controller nicht her. Was mir gerade noch eingefallen ist.
Kann ich mir irgendwie anzeigen lassen, ob die caches der einzelnen
Platten bzw. der cache der einen Platte (die aus dem RAID 5 heraus
dargestellt wird) eingeschalten ist?

Das ganze "tuning" über das /proc filesystem ist bestimmt sehr
hilfreich, ich denke aber, dass ich grundsätzlich erstmal schauen muss
wie ich diesen ernom hohen io-wait herausbekomme.

Im Moment bau ich gerade nen aktuellen Kernel (2.6.14.2). Außerdem bin
ich am nachschlagen was man unter /proc/sys/vm alles einstellen kann
(Richard hat mich ja schon mal darauf hingewiesen. Die interessanten
Teile sind hier angeblich: vm.dirty_ratio und vm.dirty_expire_centisecs.

Was für SATA Raid Controller habt ihr so im Einsatz?


Viele Grüße,

    Matthias




Reply to: