[Date Prev][Date Next] [Thread Prev][Thread Next] [Date Index] [Thread Index]

Backup von einer postgreSQL mit 80 GByte?



Hallo, 

Habe nun meinen postgreSQL server installiert und die Datenbank wieder 
hergestellt. Verwende drei 120 GByte IBM-Drives mit einem ein Software 
RAID-1 mit zwei Festplatten fuer die Datenbamk und einer einzelnen 
Festplatte furs OS und einer gewaltigen /tmp partition . 

Nun suche ich eine moeglichkeit, von dieser Monster-Datei ein Bachup zu 
machen. 

Dachte, man sollte ein script machen, das die einzelnen 830.000 Tabellen 
als Textdateien exportiert und gziped. 

Wie kann ich effektiv backups machen ? 

Textdateien sind grundsaetzlich perfekt, denn wenn etwas schief geht, 
kann man immer noch mit einem Texteditor an die Dateien oder browsing 
mit mc ;-)) 

Jegliche empfehlungen sind willkommen...

Ach ja, ich moechte gerne mit meinem CD-R55S das Backup machen und 
wuerde gerne wissen, wie weit die Datenbank kompremiert wird...

Desweiteren ist die Datenbank ein Produktionssystem und soll naechstes 
Jahr in Paris bei amen.fr online gehen, wo ich derzeit auch zwei 'Sun 
Cobalt (Raq 4)' fahre. 

Da ich hier in Strasbourg vermutlich ab Maerz einen Internet-Zugang 
mit 2 MBt haben werde, wuerde ich gerne ein Backup-System verwenden, 
das einzelne Tabellen backupen kann, da dies dann online geschehen kann. 

80 GByte ueber eine Distanz von 400 km zu Bachupen geht wohl nicht. 

Anmerkung, 90% der Daten sind statisch nach hinzufuegen zur Datenbank. 
Sprich, es kommen in erster Linie nur neue Tabellen hinzu und nur sehr 
wenige der bestehenden werden erweitert oder geändert (die mit den 
links und querverweisen auf die Anderen Tabellen). 

'Practical PostgreSQL' von O'Reilly laest sich leider ueber ein solches 
Problem nicht aus... 

Danke 
Michelle 




Reply to: