Backup von einer postgreSQL mit 80 GByte?
Hallo,
Habe nun meinen postgreSQL server installiert und die Datenbank wieder
hergestellt. Verwende drei 120 GByte IBM-Drives mit einem ein Software
RAID-1 mit zwei Festplatten fuer die Datenbamk und einer einzelnen
Festplatte furs OS und einer gewaltigen /tmp partition .
Nun suche ich eine moeglichkeit, von dieser Monster-Datei ein Bachup zu
machen.
Dachte, man sollte ein script machen, das die einzelnen 830.000 Tabellen
als Textdateien exportiert und gziped.
Wie kann ich effektiv backups machen ?
Textdateien sind grundsaetzlich perfekt, denn wenn etwas schief geht,
kann man immer noch mit einem Texteditor an die Dateien oder browsing
mit mc ;-))
Jegliche empfehlungen sind willkommen...
Ach ja, ich moechte gerne mit meinem CD-R55S das Backup machen und
wuerde gerne wissen, wie weit die Datenbank kompremiert wird...
Desweiteren ist die Datenbank ein Produktionssystem und soll naechstes
Jahr in Paris bei amen.fr online gehen, wo ich derzeit auch zwei 'Sun
Cobalt (Raq 4)' fahre.
Da ich hier in Strasbourg vermutlich ab Maerz einen Internet-Zugang
mit 2 MBt haben werde, wuerde ich gerne ein Backup-System verwenden,
das einzelne Tabellen backupen kann, da dies dann online geschehen kann.
80 GByte ueber eine Distanz von 400 km zu Bachupen geht wohl nicht.
Anmerkung, 90% der Daten sind statisch nach hinzufuegen zur Datenbank.
Sprich, es kommen in erster Linie nur neue Tabellen hinzu und nur sehr
wenige der bestehenden werden erweitert oder geändert (die mit den
links und querverweisen auf die Anderen Tabellen).
'Practical PostgreSQL' von O'Reilly laest sich leider ueber ein solches
Problem nicht aus...
Danke
Michelle
Reply to: