[Date Prev][Date Next] [Thread Prev][Thread Next] [Date Index] [Thread Index]

Re: Backup von einer postgreSQL mit 80 GByte?



hallo!

On Thu, 09 Jan 2003 14:41:18 +0000
Michelle Konzack <linux.mailinglists@freenet.de> wrote:
[...]
>  >> Dachte, man sollte ein script machen, das die einzelnen 830.000
>  >> Tabellen als Textdateien exportiert und gziped.
>  >
>  >Hm, aber doch nicht _jede_ Table einzeln ;-)
> 
> Was spricht dagegen ?
> mueste dann allerdings meine php4-Scripte und CGI's anpassen,
> das es eine zusaetzliche columne einfuegt (1|0) damit das
> backup-script erkennt, welche tabellen geaendert worden sind...
> ...und nur Tabellen in denen eine '1' steht werden ins
> incremental-Backup aufgenommen. Ich denke, das die groeste
> Tabelle (so 30 Stueck) rund 15 MByte hat, und die Restlichen
> 79 GByte auf die restlichen Tabellen verzeilt werden. immerhin
> so rund 100 kByte pro Tabelle. und bei rund 200-400 neuen
> Tabellen pro Tag ein ertraegliches mass an updates...
[...]

ich habe hier gerade ausprobiert:
	pg_dump -d -t _tabelle_ _datenbank_ > _tabelle_.dmp

der parameter -t bringt pg_dump dazu, eine einzelne tabelle aus der
datenbank _datenbank_ zu exportieren.

gruss

peter 



Reply to: