[Date Prev][Date Next] [Thread Prev][Thread Next] [Date Index] [Thread Index]

Re: Antwort: Re: nph in php



N'Abend,

Am 2005-01-20 17:58:46, schrieb Jan Kesten:
> Hallo zusammen :-)

> Wenn diese Projekt-Tabellen vom Aufbau her ähnlich sind, kann man die
> doch problemlos zu einer Tabelle zusammenfassen und dann die
> entsprechend gebrauchten Daten beim mittels eines modifizierten Selects
> herausholen.

Theoretish ja, aber ich habe Benutzerrechte auf den Tabellen...

Wenn ich eine einzige Tabelle dafür mach, währen das dann 800.000 Zeilen
und mehr tausenden von Spalten. Dann kommt dazu, das ich die
Benuzerrechte über die Zeilen managen muß...

> > Diese Tabellen sind ja auch das, was ich per Webinterfache exportieren
> > will und dazu alle Referenzen vollständig.
> 
> Was spricht denn gegen einen (modifizierten) Dump? Wenn man einfach ein

Das ist ja dann ein Dump, der mehrere Tabellen beinhaltet...
Habe ich bis jetzt nicht hinbekommen...

Währe wie gesagt, die Projecttabelle, ausschnitte aus der Haupttabelle
sowie eine unbekannte anzahl von Referenztabellen.

> SQL-Gerüst zur Verfügung stellt, kann man damit die Datenbankstruktur
> erstellen und mittels COPY dann die Datein einfüttern lassen, da sehe
> ich auch anhieb kein Problem. Man muss nur wenn man (echte) Referenzen

Eine Struktur von temporären Tabellen erstellen und Daten hineinkopieren
habe ich auch schon fertiggebracht. Nur nicht alle temporären tabellen
in einen einzigen Dump.

> benutzt sicherstellen, dass diese dann nicht mit schon vorhandenen Daten
> kollidieren.

Also Veränderungen werden nur am master Server vorgenommen. Somit sind
die Referenzen einmalig. Das einziege was passieren kann ist, das
Referenzen hinzukommen.

> > Das Problem ist nur, wie kann ich das am besten machen ?
> > Du kannst ja nicht einfach eine dump importieren...
> 
> Warum nicht?

Weil er mit eventuellen vorhandenen Dateien kollidiert (obwohl
es die gleichen sind)

> pg_dump -s <dbname> erstellt ein Datenbank-Schema und ein

Das Datenbank-Schema ist ja bei $USER auch vorhanden.

> pg_dump --table=<tablename> erstellt ein Tabellen-Dump. Und Einspielen
> kann man das ganze wie üblich.

Damit muß ich aber alle tabellen einzeln dumpen.
Ich suchte eine Möglichkeit, wie ich gleich ein dutzent Tabellen auf
einem einzigen Schlag dumpen kann, damit der $USER es einfacher hat.

Gut, der exportierte Dump ist nur eine/mehrere temporäre tabelle(n)
aber die müßen dann in das original Datenbank-Scheme kopiert weden
und die temporären Tabellen gelöscht.

> Alternativ mit COPY... nur bei Teiltabellen wird's in beiden Fällen
> etwas lustiger :-)

:-/

Ebend... Ich benötige ja für projekte keine 80 GByte Tabelle sondern
nur gewisse Daten daraus... Sowas läßt dann die Gehirnwindungen rauchen.

> > Ja ich verwende die PostgreSQL als erweitertes Dateisystem.
> 
> Mal über XFS und dessen Attribute nachgedacht?

Läuft nicht unter WOODY :-)

> > Auch mein Datenbankprogramm (programmiert mit DJGPP in 32Bit)
> > hat einwandfrei funktioniert...
> 
> Das waren noch Zeiten damals in den ganz ganz späten Achtzigern - wow
> ist das lange her (Pascal, Basic und Assembler lassen grüßen). Damals wo
> man noch jede Steuerleitung seines Rechners mit Namen kannte... *schwelg*

:-)

Von dort her kenne ich auch ettliche GNU/Linux Core Developer...

Erstaunlich, wen man da so alles im Sourcecode des Kernels
wiederfindet :-)

Wenn ich etwas füher von linux erfahren hätte...
Hätte ich nicht die Zeit 1995-1999 mit Windows verschwendet.

> Cheers,
> Jan

Greetings
Michelle

-- 
Linux-User #280138 with the Linux Counter, http://counter.li.org/ 
Michelle Konzack   Apt. 917                  ICQ #328449886
                   50, rue de Soultz         MSM LinuxMichi
0033/3/88452356    67100 Strasbourg/France   IRC #Debian (irc.icq.com)

Attachment: signature.pgp
Description: Digital signature


Reply to: