Am 2005-01-20 16:43:21, schrieb Jan Kesten: > Moin, > > Bei mir geht es um über 800.000 Tabellen. > > Hmm, vielleicht sollest Du mal dein Datenbank-Schema überdenken? Wenn > ich mal davon ausgehe, dass Du da 1TB an Daten auf 800000 Tabellen > verteilst, dann sind das ja nicht mal 2 MByte Daten pro Tabelle im > Schnitt. Ohne jetzt den Anwendungsfall zu kennen, wage ich mal die > Vermutung das man dort etwas verbessern könnte... Dann hätte ich aber Tabellen mit weis der Teufel wie viele Spalten... Garantiert aber ein paar tausend... > > Einzelne Tabellen kann mann u.U. noch verscmerzen, aber bei einen > > 80 GByte Platschari tuts weh... > > Hmm. Nutzt Du die Datenbank einfach nur als 'besseres' Dateisystem? Bei > mir in den Datenbanken stellt der Verlust einer Tabelle eine Katastrophe > dar, weil dann alle Referenzen etc. nicht mehr funktionieren. Gut, wenn eine Referenztabelle kaputt geht bin ich am irgendwo! Nur diese Tabellen lassen sich schnell mal alle paar Stunden dumpen. Was mir Sorgen macht, sind diese Monster-Tabellen. Ich habe auch schon vor 1 1/2 Jhren damit gespielt, incremental Backups von den Tabellen zu machen, in dem ich zu den ROWs ein Flag hinzufüge, damit ich weis, was alles geändert würde und kann dann mit Hilfe desselbigen Backups machen... War aber ne gewaltige Arbeit und ich habs sein lassen... Mittlerweile denke ich wieder darüber nach... Zumindest für die Haupttabelle, die sich im Notfall wieder Zeienwiese wiederherstellen läßt. > Cheers, > Jan Greetings Michelle -- Linux-User #280138 with the Linux Counter, http://counter.li.org/ Michelle Konzack Apt. 917 ICQ #328449886 50, rue de Soultz MSM LinuxMichi 0033/3/88452356 67100 Strasbourg/France IRC #Debian (irc.icq.com)
Attachment:
signature.pgp
Description: Digital signature