[Date Prev][Date Next] [Thread Prev][Thread Next] [Date Index] [Thread Index]

Re: Antwort: Re: nph in php



Am 2005-01-20 16:06:40, schrieb Jan Kesten:
> Hallo,

> Mit anderen Worten, wenn alle 3000 User die Zugriff auf deine Datenbank
> haben, nur alle 2 Sekunden eine Transaktion durchführen (wobei ja eine
> sinnvolle Abfrage durchaus auch aus mehreren Transaktionen bestehen
> kann) und sowohl Rechenleistung als Anbindung ausreichen, dann knackt
> man die Grenze innerhalb einer Woche schnell.

Richtig, nur das die 3000 $USER nicht alle immer zugreifen...
Das ist mehr oder weniger auf den Monat verteilt.

Es sind ja nur zwei handvoll Leute die permamenten Zugriff auf
die Datenbank benötigen. Der Rest ist nur Datenzubringer...

> Vor 7.2 musste man um das gleiche Problem zu beheben alle 4 Milliarden
> Transaktionen ein reinit durchführen - das ist ja glücklicherweise
> vorbei, denn während des reinit stand ja die Datenbank, während man ein
> vacuumdb durchaus in lastarmen Zeiten laufen lassen kann, ohne dass die
> Datenbank nicht mehr ansprechbar ist.

Das ist der Grund, warum ich es am Sonntag nachmittag mache...
Da geht echt ewig lange nichts mehr.

> Manchmal sollte man schonmal sich die Mühe machen sich durch die Doku
> und die Datenbank-Statistiken zu quälen :-) Aber das ist eben etwas, was
> eindeutig in die Aufgabe des Admins fällt, der so ein System betreut -
> bei MySQL hast Du das Problem beispielsweise nicht.

Dafür habe ich bei MySQL probleme mit den vielen Tabellen gehabt und
war deswegen wesentlich langsamer. Allerdings waren anfragen auf meine
Haupttabelle (80 GByte) unter MySQl wesentlich schneller

Sprich, bei exterm vielen Tabellen und extrem dynamischen Inhalten ist
PostgreSQL und bei Statischen Inhalten, "wenig" aber extrem großen
Tabellen MySQL schneller.

Bei mir geht es um über 800.000 Tabellen.

> > Vor allen will ich die Tabellen nun so organisieren, das die
> > dumps nicht mehr größer sind als die Backup-Medien...
> 
> Eins hab ich mal gelernt: nie sollte man die Layout einer Datenbank an
> solche Dinge anpassen, aber das ist Geschmackssahe. Man kann das Dump ja
> immer mittels einer Pipe und Split auf die passende Größe für ein Band
> bekommen :-)

Dann ist eine der gesplitteten datein hin und nichts geht mehr...

Einzelne Tabellen kann mann u.U. noch verscmerzen, aber bei einen
80 GByte Platschari tuts weh...

Vor allem das DLT was ich benötige kostet weit über 2000 €...

> Cheers,
> Jan

Greetings
Michelle

-- 
Linux-User #280138 with the Linux Counter, http://counter.li.org/ 
Michelle Konzack   Apt. 917                  ICQ #328449886
                   50, rue de Soultz         MSM LinuxMichi
0033/3/88452356    67100 Strasbourg/France   IRC #Debian (irc.icq.com)

Attachment: signature.pgp
Description: Digital signature


Reply to: