[Date Prev][Date Next] [Thread Prev][Thread Next] [Date Index] [Thread Index]

Re: Backup von einer postgreSQL mit 80 GByte?



Hallo,

Am 20:48 2003-01-03 +0100 hat Dr. Bernd Freistedt geschrieben:
>
>* Michelle Konzack <linux.mailinglists@freenet.de> [030103 18:33]:

>pg_dump -d database_name | gzip > /WohinDuWillst/KomprimiertesDump.gz

Habe ich noch nicht verwendet... :-/
Habe es fertiggebracht, diepgsql zum laufen zu bringen, MS-SQL Server
zu vernichten aber ich kaempfe mit der Dokumentation und einem halben
dutzend Buechern herum.

>Das Ergebnis ist ein komprimierter Text (SQL Statements).

Das wuerde aber bedeuten, das ich dieser Zeit die Datenbank stoppen
muss oder mindestens keine Schreibzugriffe erlauben darf.

Und wie man die pgsql in read-only-modus versezt und ob dies
ueberhaupt geht, weis ich nicht. jedenfals ein simples bz2
der gesamten Datenbank dauerte 3 1/4 Stunden... auf einem
Athlon 1400 mit 1GByte Speicher.

>Merke: Ein Backup einer Datenbank kannst Du nur als dump anlegen,
>sonst gibt's Probleme mit der Konsistenz.

Damit komme ich noch nicht ganz klar.

>Die -d-Option mag mancher als ueberfluessig ansehen, weil auch
>langsam, aber dafuer hast Du fuer das restore ein sauberes SQL-Script,
>das auf allen SQL-Datenbanken laufen sollte.
>Siehe auch man pg_dump. Dort gibt's noch maasenhaft Optionen

Ja <stoehn>, habe sie hier ausgedruckt vor mir liegen...
Ich versuche das alles im Krankenhaus waehrend der Dialyse
zu lesen/lernen.

>> Dachte, man sollte ein script machen, das die einzelnen 830.000 Tabellen
>> als Textdateien exportiert und gziped.
>
>Hm, aber doch nicht _jede_ Table einzeln ;-)

Was spricht dagegen ?
mueste dann allerdings meine php4-Scripte und CGI's anpassen,
das es eine zusaetzliche columne einfuegt (1|0) damit das
backup-script erkennt, welche tabellen geaendert worden sind...
...und nur Tabellen in denen eine '1' steht werden ins
incremental-Backup aufgenommen. Ich denke, das die groeste
Tabelle (so 30 Stueck) rund 15 MByte hat, und die Restlichen
79 GByte auf die restlichen Tabellen verzeilt werden. immerhin
so rund 100 kByte pro Tabelle. und bei rund 200-400 neuen
Tabellen pro Tag ein ertraegliches mass an updates...

>> Da ich hier in Strasbourg vermutlich ab Maerz einen Internet-Zugang
>> mit 2 MBt haben werde, wuerde ich gerne ein Backup-System verwenden,
>> das einzelne Tabellen backupen kann, da dies dann online geschehen kann.
>>
>> 80 GByte ueber eine Distanz von 400 km zu Bachupen geht wohl nicht.
>
>Warum nicht? - z. B. nfs

???
Bei 2 MBit bekomme ich gerade mal 230 kByte/Secunde...
...was dann ein Vollbackup von rund 96 Stunden bedeutet !

Einzelne Tabellen incremental zu bachupen ist ja in Minuten erledigt...

Aber wie verhaelt es sich, wenn ich in STrasbourg einen SQL-SLAVE
aufstelle ? Also einer der die neuerungen vom SQL-MASTER in paris
annimt. und das sind ja dann uch nur noch ein paar dutzend MBytes
pro Tag...

Hast Du Erfahrung oder Links wie man eine Master-Slave-Konfiguration
macht ?

Haette auch den Vorteil, das wenn meine Internet-Verbindung mal
gestoert ist, ich immer noch local READ-Datenzugriffe haben kann.

>Gruessli
>Bernd

Danke
Michelle



Reply to: