[Date Prev][Date Next] [Thread Prev][Thread Next] [Date Index] [Thread Index]

Re: 600 GB Backup - Zeitproblem



Andreas Behnert <abehn@gmx.net> writes:

> > Im Backup-Geschäft hat sich der Irrglauben manifestiert, man müsse
> > alle Full-Backups an einem Tag machen. Ein künstlich geschaffener
> > Engpaß.
> 
> Full wird am Wochenende laufen, unter der Woche nur inkrementell. Soll
> heißen, daß nur im allerschlimmsten Fall (ALLE Dateien auf dem File-
> server geändert) 500 GB in sechs Stunden über die Leitung müssen.

Genau das find ich albern. Definiere lieber fünf Datenhaufen a 100 GB,
von denen dann jeden Tag ein anderer full und die anderen inkrementell
gesichert werden. Damit vermeidest du die Lastspitze.

> > Was machst du, wenn es irgendwann mehr Daten werden?
> 
> Es ist eine 2 TB-Library (native) angedacht.

;-)

Ich dachte vor knapp zwei Jahren auch, daß 1TB native ausreicht.

> Mit einem Tandberg DLT8000 (einfaches externes Laufwerk) hatten wir mal
> massive Probleme an einer RS6000 mit AIX, von wegen konstante Schreibrate
> und Blockgröße (einfache Versuche mit tar).

DLTs gehen recht schnell in Start-Stop-Betrieb, wenn die eingehende
Datenrate nicht ausreicht.  Wenn die Daten auf lokaler Platte
zwischengespeichert werden, muß nur die lokale Platte ausreichend
schnell sein. (Ich nehme übrigens aufgrund Rahmenbedingungen nicht
IDE, sondern die 180GB-SCSI-Platten.)

        Sven
-- 
Sven Rudolph <sr1@sax.de>		http://www.sax.de/~sr1/



Reply to: