N'Abend, Am 2005-01-20 17:58:46, schrieb Jan Kesten: > Hallo zusammen :-) > Wenn diese Projekt-Tabellen vom Aufbau her ähnlich sind, kann man die > doch problemlos zu einer Tabelle zusammenfassen und dann die > entsprechend gebrauchten Daten beim mittels eines modifizierten Selects > herausholen. Theoretish ja, aber ich habe Benutzerrechte auf den Tabellen... Wenn ich eine einzige Tabelle dafür mach, währen das dann 800.000 Zeilen und mehr tausenden von Spalten. Dann kommt dazu, das ich die Benuzerrechte über die Zeilen managen muß... > > Diese Tabellen sind ja auch das, was ich per Webinterfache exportieren > > will und dazu alle Referenzen vollständig. > > Was spricht denn gegen einen (modifizierten) Dump? Wenn man einfach ein Das ist ja dann ein Dump, der mehrere Tabellen beinhaltet... Habe ich bis jetzt nicht hinbekommen... Währe wie gesagt, die Projecttabelle, ausschnitte aus der Haupttabelle sowie eine unbekannte anzahl von Referenztabellen. > SQL-Gerüst zur Verfügung stellt, kann man damit die Datenbankstruktur > erstellen und mittels COPY dann die Datein einfüttern lassen, da sehe > ich auch anhieb kein Problem. Man muss nur wenn man (echte) Referenzen Eine Struktur von temporären Tabellen erstellen und Daten hineinkopieren habe ich auch schon fertiggebracht. Nur nicht alle temporären tabellen in einen einzigen Dump. > benutzt sicherstellen, dass diese dann nicht mit schon vorhandenen Daten > kollidieren. Also Veränderungen werden nur am master Server vorgenommen. Somit sind die Referenzen einmalig. Das einziege was passieren kann ist, das Referenzen hinzukommen. > > Das Problem ist nur, wie kann ich das am besten machen ? > > Du kannst ja nicht einfach eine dump importieren... > > Warum nicht? Weil er mit eventuellen vorhandenen Dateien kollidiert (obwohl es die gleichen sind) > pg_dump -s <dbname> erstellt ein Datenbank-Schema und ein Das Datenbank-Schema ist ja bei $USER auch vorhanden. > pg_dump --table=<tablename> erstellt ein Tabellen-Dump. Und Einspielen > kann man das ganze wie üblich. Damit muß ich aber alle tabellen einzeln dumpen. Ich suchte eine Möglichkeit, wie ich gleich ein dutzent Tabellen auf einem einzigen Schlag dumpen kann, damit der $USER es einfacher hat. Gut, der exportierte Dump ist nur eine/mehrere temporäre tabelle(n) aber die müßen dann in das original Datenbank-Scheme kopiert weden und die temporären Tabellen gelöscht. > Alternativ mit COPY... nur bei Teiltabellen wird's in beiden Fällen > etwas lustiger :-) :-/ Ebend... Ich benötige ja für projekte keine 80 GByte Tabelle sondern nur gewisse Daten daraus... Sowas läßt dann die Gehirnwindungen rauchen. > > Ja ich verwende die PostgreSQL als erweitertes Dateisystem. > > Mal über XFS und dessen Attribute nachgedacht? Läuft nicht unter WOODY :-) > > Auch mein Datenbankprogramm (programmiert mit DJGPP in 32Bit) > > hat einwandfrei funktioniert... > > Das waren noch Zeiten damals in den ganz ganz späten Achtzigern - wow > ist das lange her (Pascal, Basic und Assembler lassen grüßen). Damals wo > man noch jede Steuerleitung seines Rechners mit Namen kannte... *schwelg* :-) Von dort her kenne ich auch ettliche GNU/Linux Core Developer... Erstaunlich, wen man da so alles im Sourcecode des Kernels wiederfindet :-) Wenn ich etwas füher von linux erfahren hätte... Hätte ich nicht die Zeit 1995-1999 mit Windows verschwendet. > Cheers, > Jan Greetings Michelle -- Linux-User #280138 with the Linux Counter, http://counter.li.org/ Michelle Konzack Apt. 917 ICQ #328449886 50, rue de Soultz MSM LinuxMichi 0033/3/88452356 67100 Strasbourg/France IRC #Debian (irc.icq.com)
Attachment:
signature.pgp
Description: Digital signature