[Date Prev][Date Next] [Thread Prev][Thread Next] [Date Index] [Thread Index]

Re: Backupprogramm



-----BEGIN PGP SIGNED MESSAGE-----
Hash: SHA1

Moin,
hat ein wenig gedauert, wir bereiten gerade das Nove Hrady/Kastle
Treffen vor...

Am Montag, 11. August 2003 22:27 schrieb Michelle Konzack:

> >Gibt es eine freie Backuplösung die folgendes leistet ?
> >1. konfigurierbar, mehrere hosts, 
> >2. client compression, 
> >3. incremental Backup
> >4. netzwerk fähig
> >5. kommt mit tapes (DLT, DAT etc klar)
> >6. große Partitionen sichernd (Part. >> tapemedium)
> >7. effektive file datenbank
> >8. ordentliches restore feature
> >9. desaster recovery
> >10. frei im Debian Sinne
> >11. transparent und nicht störend im Hintergrund arbeitend
> >12. möglichst X11/Gnome/KDE Frontend zur Konfiguration, Bedienung
> >13. mail interface für Bandwechsel / Operator Eingriffe
> >14. command line tools

> >Im Prinzip suche ich sowas wie "Arkeia" oder "SEP Sesam" oder Tapeware,
> >nur aus der freien Welt.

> >Amanda habe ich schon angetestet. Amanda kommt jedoch mit
> >(4, 6, 7, 9) nicht zu Rande. Eine 100 GB PArtition kann nicht auf ein
> >24GB Band gesichert werden Amanda wirft Fehler.

> >Ebenso min ich mit der CPU Belastung, die amanda verursacht nicht 
> >einverstanden. Die ist *extrem*. Bis zum NFS Server not responding,
> >sobald eine Server partition gesichert wird...
 
> Also mit 4) gibt es überhaupt keine probleme, denn ich habe einen seperaten 
> Backup-Server mit einem HP-SurStore 12000e. Mounten tut er partitionen mit
> nfs unter Linux oder smb mit samba-client. 

Das ist keine Lösung. Client hat seine Daten zu lesen, komprimieren und via einem
(gedrosseltem) gecryptet und komprimiertem Strom zum Backupserver auf anfrage dessen
zu senden.
 
> Bei 6) gibt es ebenfals keine Probleme, den Amanda kann Tape wechseln... ;-)
> Bei 6 x 48 GByte kein Problem...
Von http://www.amanda.org
WHAT IS AMANDA 
Amanda, the Advanced Maryland Automatic Network Disk Archiver, is a backup system 
that allows the administrator of a LAN to set up a single master backup server to back 
up multiple hosts to a single large capacity tape drive. 
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
[...]
Was ist wenn eine Part mit 1TB gesichert werden soll ?

> Was verstehst Du unter 7) ???
Meist wird ein Backup gebraucht, wenn ein User sich eine Datei
gelöscht hat, diese jedoch wierder braucht.
Die Datei wiederherzustellen ist eine klassische Anwendung,
das Band, daß die Datei enthält muß effizient gefunden werden,
ebenso muß es einfach sein diese eine Datei zu restaurieren.

> 9) und damit ?
a. Backup Server Totalschaden.
Mit Arkeia konnte man im Notfall eine Knoppix Booten,
die neue Platte Partitionieren und mit "readarkeia" den
Backuipserver direkt restaurieren. "readarkeia" steckt
übrigens als C-Queltext in jedem Arkeia Tapelable.
Auslesen mit "dd if=/dev/st0 of=/readarkeia.c bs=1M count=1",
Editieren, Müll wegschneiden, gcc -o readarkeia readarkeia.c
./readarkeia xvf /dev/st0 server 
Restauriert direkt.
Das wäre eine Ausprägung eines Desaterplans...
b. Client Totalschaden
Gleiches in grün, nur für Clients...

> Wel nach eime Blitzschlag mein HP-SurStore abgeraucht ist und ein neues 
> mehr kostet als ich nach derzeitigem Stand in zwei Jahren zusammen bringen
> kann, verwende ich ein 3Ware Controller mit 4 Kanälen und drei IBM 120 GByte 
> Platten.
;->> Wir haben hier seit Jahren nur ICP-Vortex Controller,
die 3Ware kommen seit kurzem in die Clients ...

> Dazu scripts die mir server per nfs/smb mounten und ich lege einfach 
> Verzechnislisten à la Contents.gz an die ich durch diff jage...
 
> Dann kann ich nach einem Vollbackup einfach Incremental-Backups machen. 
> Die Dinger werden in Verzeichnisstrukturen wie
> /BACKUPS/<computername>/2003-08-11-000000-full.tar.gz
> abgespeichert. Allerdings experimentiere ich derzeit mit einem Backup, das 
> nicht einen +.tar.gz anlegt, sonder in ein Serial-Datums-Verzeichnis die 
> Server-Struktur mit allen Dateien, allerdings einzeln *.gz. 
> Das Teil ist wesentlich schneller, als das screiben einer einzigen *.tar.gz. 
> Aund ausserdem kann ich jede Datei mit standardmittelm wieder extrahierten...
> Eine Contents Datei gibt dann noch an, ob die Datei vorher schon kompremiert 
> war oder nicht. Deweitere sollte das Dateisystem mit 'Blocksize 2k' erstellt 
> werden. 
> Damit läst sich ein Debian-system von den beiden rescue/root Disketten via 
> Netzwerk wieder herstellen... 
Mal drüber nachdenken...

mfG
	Jürgen
	automatiX Linux  Support Crew
- -- 
Jürgen Sauer - AutomatiX GmbH, +49-4209-4699, jojo@automatix.de **
** Das Linux Systemhaus - Service - Support - Server - Lösungen **
** http://www.automatix.de                    ICQ: #344389676   **
-----BEGIN PGP SIGNATURE-----
Version: GnuPG v1.2.2 (GNU/Linux)

iD8DBQE/OgIrW7UKI9EqarERAhX9AKCyKn/J5N7YkDgp19H51PFEDVKEDwCgjADz
0fxFxHeWxcDCvNFhQDZtykk=
=LEP+
-----END PGP SIGNATURE-----



Reply to: