Re: Backup von einer postgreSQL mit 80 GByte?
* Michelle Konzack <linux.mailinglists@freenet.de> [030103 18:33]:
> Nun suche ich eine moeglichkeit, von dieser Monster-Datei ein Bachup zu
> machen.
pg_dump -d database_name | gzip > /WohinDuWillst/KomprimiertesDump.gz
Das Ergebnis ist ein komprimierter Text (SQL Statements).
Merke: Ein Backup einer Datenbank kannst Du nur als dump anlegen,
sonst gibt's Probleme mit der Konsistenz.
Die -d-Option mag mancher als ueberfluessig ansehen, weil auch
langsam, aber dafuer hast Du fuer das restore ein sauberes SQL-Script,
das auf allen SQL-Datenbanken laufen sollte.
Siehe auch man pg_dump. Dort gibt's noch maasenhaft Optionen
> Dachte, man sollte ein script machen, das die einzelnen 830.000 Tabellen
> als Textdateien exportiert und gziped.
Hm, aber doch nicht _jede_ Table einzeln ;-)
Mit o. g. Beispiel erwischst Du eine ganze Datenbank mit allen Tables.
> Wie kann ich effektiv backups machen ?
s. o.
> Da ich hier in Strasbourg vermutlich ab Maerz einen Internet-Zugang
> mit 2 MBt haben werde, wuerde ich gerne ein Backup-System verwenden,
> das einzelne Tabellen backupen kann, da dies dann online geschehen kann.
>
> 80 GByte ueber eine Distanz von 400 km zu Bachupen geht wohl nicht.
Warum nicht? - z. B. nfs
Gruessli
Bernd
--
echo;echo;echo -e " (°> \n //\ \n V_/_";e`echo P8insS 0o Juux|sed \
'st\(in\)\(.*\)\(o Ju\)t\3\2\1t'|tr 8PS0 hctL`;echo;echo
Reply to: