[Date Prev][Date Next] [Thread Prev][Thread Next] [Date Index] [Thread Index]

Re: Festplattenauslastung feststellen



Also sprach Christoph Petersen <lists@peterschen.de> (Wed, 11 May 2005
14:10:27 +0200):
> Hallo,

hi.

> Richard Mittendorfer schrieb:
> > waere trotzdem nuetzlich zu wissen, was genau du willst. es macht
> > einen unterschied ob du nun throughput problem zur disk hast oder ob
> > das journal trouble macht oder du schlicht einen weg suchst um
> > fs+disk i/o performance auszureizen.
> > 
> 
> ich will den Mailserver tunen. Ich habe diverse Probleme, wenn ich
> eine Blacklist zu dem Mailserver hinzufüge. Da ich leider die
> ursprünglich Konfiguration nicht gemacht habe weiß ich nicht genau wie
> die eine oder andere Sache läuft.
> 
> Bei schreibenden zugriffen auf die Festplatte braucht die Kiste schon
> länger. Das merke ich an du -h auf einen Order mit wenig Daten. Aber

je nach kernel koenntest du elvtune[2.4] oder /sys/block[2.6] (elevator)
einstellungen probieren. zu elvtune siehe
http://strasbourg.linuxfr.org/jl3/features-2.3-1.html / +google :)

bitte denk' an benchmarking nach _jeder_ aenderung. das ist recht
zeitaufwendig und kann im endeffekt auch _null_ bringen. diverse /proc
parameter haben da ebenfalls grossen einfluss.

> auch, wenn zwei drei große Dateien hier liegen. Dies sollte aber
> eigentlich nicht der Fall sein, da das System mit einem RAID1 läuft
> und nur ein mal die Woche die zweite Platte getauscht wird.

was fuer ein raid? hatte hier mal ein sw-raid1 und hab's gegen ein
sw-raid0 und daily backups ausgetauscht - war mir zu langsam. 

scsi? bringst du die daten denn ueber den (pci)bus? hab' hier u.a. ein
i810 billigboard bei dem der scsicontroller die gesamte breite nimmt.

noatime, richtiges fs (reiser - kann nix in sachen JFS od. XFS sagen -
hier nicht in verwendung) - siehe thread "genaue unterschiede d...".
 
> Mein Hauptziel lautet: qmail + vpopmail + spamassain + 0.00 load ;D

perl spam db ist eher was fuer die cpu :( aber das schriebst ja schon.

sl ritch



Reply to: