[Date Prev][Date Next] [Thread Prev][Thread Next] [Date Index] [Thread Index]

Re: Backup von einer postgreSQL mit 80 GByte?



* Michelle Konzack <linux.mailinglists@freenet.de> [030103 18:33]:
 
> Nun suche ich eine moeglichkeit, von dieser Monster-Datei ein Bachup zu 
> machen. 

pg_dump -d database_name | gzip > /WohinDuWillst/KomprimiertesDump.gz

Das Ergebnis ist ein komprimierter Text (SQL Statements).

Merke: Ein Backup einer Datenbank kannst Du nur als dump anlegen,
sonst gibt's Probleme mit der Konsistenz.

Die -d-Option mag mancher als ueberfluessig ansehen, weil auch
langsam, aber dafuer hast Du fuer das restore ein sauberes SQL-Script,
das auf allen SQL-Datenbanken laufen sollte.
Siehe auch man pg_dump. Dort gibt's noch maasenhaft Optionen

> Dachte, man sollte ein script machen, das die einzelnen 830.000 Tabellen 
> als Textdateien exportiert und gziped. 

Hm, aber doch nicht _jede_ Table einzeln ;-)
Mit o. g. Beispiel erwischst Du eine ganze Datenbank mit allen Tables.

> Wie kann ich effektiv backups machen ? 

s. o.

> Da ich hier in Strasbourg vermutlich ab Maerz einen Internet-Zugang 
> mit 2 MBt haben werde, wuerde ich gerne ein Backup-System verwenden, 
> das einzelne Tabellen backupen kann, da dies dann online geschehen kann. 
> 
> 80 GByte ueber eine Distanz von 400 km zu Bachupen geht wohl nicht. 

Warum nicht? - z. B. nfs

Gruessli
Bernd
-- 
echo;echo;echo -e " (°> \n //\ \n V_/_";e`echo P8insS 0o Juux|sed \
'st\(in\)\(.*\)\(o Ju\)t\3\2\1t'|tr 8PS0 hctL`;echo;echo



Reply to: