Am 2005-01-20 16:06:40, schrieb Jan Kesten: > Hallo, > Mit anderen Worten, wenn alle 3000 User die Zugriff auf deine Datenbank > haben, nur alle 2 Sekunden eine Transaktion durchführen (wobei ja eine > sinnvolle Abfrage durchaus auch aus mehreren Transaktionen bestehen > kann) und sowohl Rechenleistung als Anbindung ausreichen, dann knackt > man die Grenze innerhalb einer Woche schnell. Richtig, nur das die 3000 $USER nicht alle immer zugreifen... Das ist mehr oder weniger auf den Monat verteilt. Es sind ja nur zwei handvoll Leute die permamenten Zugriff auf die Datenbank benötigen. Der Rest ist nur Datenzubringer... > Vor 7.2 musste man um das gleiche Problem zu beheben alle 4 Milliarden > Transaktionen ein reinit durchführen - das ist ja glücklicherweise > vorbei, denn während des reinit stand ja die Datenbank, während man ein > vacuumdb durchaus in lastarmen Zeiten laufen lassen kann, ohne dass die > Datenbank nicht mehr ansprechbar ist. Das ist der Grund, warum ich es am Sonntag nachmittag mache... Da geht echt ewig lange nichts mehr. > Manchmal sollte man schonmal sich die Mühe machen sich durch die Doku > und die Datenbank-Statistiken zu quälen :-) Aber das ist eben etwas, was > eindeutig in die Aufgabe des Admins fällt, der so ein System betreut - > bei MySQL hast Du das Problem beispielsweise nicht. Dafür habe ich bei MySQL probleme mit den vielen Tabellen gehabt und war deswegen wesentlich langsamer. Allerdings waren anfragen auf meine Haupttabelle (80 GByte) unter MySQl wesentlich schneller Sprich, bei exterm vielen Tabellen und extrem dynamischen Inhalten ist PostgreSQL und bei Statischen Inhalten, "wenig" aber extrem großen Tabellen MySQL schneller. Bei mir geht es um über 800.000 Tabellen. > > Vor allen will ich die Tabellen nun so organisieren, das die > > dumps nicht mehr größer sind als die Backup-Medien... > > Eins hab ich mal gelernt: nie sollte man die Layout einer Datenbank an > solche Dinge anpassen, aber das ist Geschmackssahe. Man kann das Dump ja > immer mittels einer Pipe und Split auf die passende Größe für ein Band > bekommen :-) Dann ist eine der gesplitteten datein hin und nichts geht mehr... Einzelne Tabellen kann mann u.U. noch verscmerzen, aber bei einen 80 GByte Platschari tuts weh... Vor allem das DLT was ich benötige kostet weit über 2000 €... > Cheers, > Jan Greetings Michelle -- Linux-User #280138 with the Linux Counter, http://counter.li.org/ Michelle Konzack Apt. 917 ICQ #328449886 50, rue de Soultz MSM LinuxMichi 0033/3/88452356 67100 Strasbourg/France IRC #Debian (irc.icq.com)
Attachment:
signature.pgp
Description: Digital signature