[Date Prev][Date Next] [Thread Prev][Thread Next] [Date Index] [Thread Index]

Re: nph in php



Am 2005-01-21 11:04:48, schrieb Jan Kesten:
> Hallo,

> Vielleicht wollte ich anregen, das Konzept an sich einfach mal zu
> überdenken? Vielleicht lässt sich einiges auch ganz anders lösen als man
> das bisher getan hat - das macht manchmal durchaus Sinn :-)

Ich bin seit einer ganzen weile dabei mir was besseres auszudenken,
habe auch jede menge dokumentation gefunden, weis aber immer noch
nicht so recht, was zu tun...

> > Das ist ja dann ein Dump, der mehrere Tabellen beinhaltet... Habe ich
> > bis jetzt nicht hinbekommen...
> 
> Jede Tabelle einzeln :-)
> 
> > Das Datenbank-Schema ist ja bei $USER auch vorhanden.
> 
> Mit allen 800.000 Tabellen? Ohje..

Nee, nur die basisstruktur ohne Projecttabellen.
Die sollen ja $USER spezifisch erst heruntergeladen werden.

> > Damit muß ich aber alle tabellen einzeln dumpen. Ich suchte eine
> > Möglichkeit, wie ich gleich ein dutzent Tabellen auf einem einzigen
> > Schlag dumpen kann, damit der $USER es einfacher hat.
> 
> Selbst schreiben ist eine Lösung. Per SELECT alles rausholen, in das
> Dateiformat für den COPY FROM bringen und speichern das ganze. Wie das
> genau aussieht, zeigt ein Blick in die Ausgabe des normalen Dumps.
> 
> Und was die Datenkollisionen angeht, so könnte man in dem entsprechenden
> File entweder alles in Transaktionen verpacken und dann spielen die
> IntegrityErrors keine Rolle weil sie ja nur Duplikate anzeigen oder man
> setzt einige entsprechende DROP Zeilen davor.


> > Ebend... Ich benötige ja für projekte keine 80 GByte Tabelle sondern 
> > nur gewisse Daten daraus... Sowas läßt dann die Gehirnwindungen
> > rauchen.
> 
> Ich hätte das ja auf die einzelnen Projekte direkt verteilt oder mir
> halt wirklich die Teilmenge der Daten in einen eigenen Dump geschrieben.
> Sollte wenn die SELECT Statements klar definiert sind doch kein Problem
> darstellen...

Eben das geht nicht (so einfach)...
Die Tabelle ist ja wie ein Geschichtsbuch mit zeitlichem Ablauf.

Ich dachte schon mal an das Splitten in Jahre, aber dann haste
Probleme mit den Suchfunktionen, denn dann müßte ich über mehr
als 5000 Tabellen suchen, wovon die neuesten 60 (Tabellen/Jahre)
gut 95% der Tabelle aus machen.

Echt kompliziert mit Datenbanken zu arbeiten...
Habe mehr oder weniger nur ein Datengrab mit Suchfunktion.
Bin ebend keine Datenbankspezialistin.

> Cheers,
> Jan

Greetings
Michelle

-- 
Linux-User #280138 with the Linux Counter, http://counter.li.org/ 
Michelle Konzack   Apt. 917                  ICQ #328449886
                   50, rue de Soultz         MSM LinuxMichi
0033/3/88452356    67100 Strasbourg/France   IRC #Debian (irc.icq.com)

Attachment: signature.pgp
Description: Digital signature


Reply to: