[Date Prev][Date Next] [Thread Prev][Thread Next] [Date Index] [Thread Index]

Re: [OT]Re: Backup von einer postgreSQL mit 80 GByte?



Hallo, Michelle,

Am Fre, 2003-01-31 um 02.39 schrieb Michelle Konzack:
[...]
> Hmmm, ich denke, das _modifiziert_ sofort beim auslesen geleert 
> werden muss, denn wenn ich danach mit pg_dump die liste abarbeite, 
> rennt die postgresql ja weiter und weitere Tabellen koennten 
> modifiziert werden. 
Klar.

> 
> >Apropos Verwaltungskram: Der fällt weg, wenn Du die Datenbank mit
> >pg_dump sicherst. Es könnte sein, dass Dein Backup kleiner ausfällt als
> >die 80GB. Wär' vielleicht einen Versuch wert.(Ich habe hier eine
> >Datenbank, die auf dem Rechner etwas über 100MB belegt - keine
> >Optimierung gemacht, Indizees sind nicht angelegt - die Nutzdaten sind
> >ungefähr 15MB gross.)
> 
> Richtig, aber ich kann eben nicht jeden Tag ein Master-Backup machen, 
> sondern warscheinlich nur einmal im Monat (wenn ich nach paris fahre), 
> denn selbst 80->12 GByte per Internet Backupen ist nicht drin. 
> 
> Da braucht man selbst bei einer E1 mindestens 20 Stunden bei voller last.
> 
> >Zu Deiner anderen Mail:
> >Die komplette Datenbank solltest Du mit pg_dump bzw. pg_dumpall sichern.
> >(Vielleicht hast Du ja Glück und alles passt auf eine CD... s.o.)
> 
> Sind mit pg_dumpall rund 39 GByte... 
> Das passt noch nicht einmal auf DVD's.

Schade...
Wechselplatte? (Ob die Datenbank aus einzelnen Tabellendumps zu
restaurieren ist, kann ich nicht beurteilen - das hängt ja davon ab, wie
sie organisiert ist.)
[...]

Gruss

Peter



Reply to: