Re: Backup von einer postgreSQL mit 80 GByte?
hallo!
On Thu, 09 Jan 2003 14:41:18 +0000
Michelle Konzack <linux.mailinglists@freenet.de> wrote:
[...]
> >> Dachte, man sollte ein script machen, das die einzelnen 830.000
> >> Tabellen als Textdateien exportiert und gziped.
> >
> >Hm, aber doch nicht _jede_ Table einzeln ;-)
>
> Was spricht dagegen ?
> mueste dann allerdings meine php4-Scripte und CGI's anpassen,
> das es eine zusaetzliche columne einfuegt (1|0) damit das
> backup-script erkennt, welche tabellen geaendert worden sind...
> ...und nur Tabellen in denen eine '1' steht werden ins
> incremental-Backup aufgenommen. Ich denke, das die groeste
> Tabelle (so 30 Stueck) rund 15 MByte hat, und die Restlichen
> 79 GByte auf die restlichen Tabellen verzeilt werden. immerhin
> so rund 100 kByte pro Tabelle. und bei rund 200-400 neuen
> Tabellen pro Tag ein ertraegliches mass an updates...
[...]
ich habe hier gerade ausprobiert:
pg_dump -d -t _tabelle_ _datenbank_ > _tabelle_.dmp
der parameter -t bringt pg_dump dazu, eine einzelne tabelle aus der
datenbank _datenbank_ zu exportieren.
gruss
peter
Reply to: