[Date Prev][Date Next] [Thread Prev][Thread Next] [Date Index] [Thread Index]

VideoschnittSW



Dirk Salva:
Sorry, aber nee - schlichtweg zu teuer. Wie "alt" darf die Hardware
denn Deiner Meinung nach sein? Mein "aktueller" Desktop (Athlon64 X2
4200+ oder so, IMO hat er 2,2GHz Takt) mit nVidia 7900GS (AGP) ist
nicht in der Lage, fullHD MKVs abzuspielen. Mit Squeeze und dem darin
enthaltenen vlc. Der ruckelt alle paar Sekunden, selbst wenn dass das
einzige ist, was ich mit dem Rechner mache. Egal ob von SATA, PATA uder
USB, die Platte ist also nicht der Flaschenhals. Das dazu.
-------------------


Verzeiht dass ich mich mal wieder einfach hier melde und mich gleich mal
"Wichtig" machen muss, aber das kann man da wirklich nicht so stehen
lassen.

Ich glaube, dass ein 2 Ghz Prozessor für FullHD ausreicht. Die Probleme
liegen woanders.

1.)

http://de.wikipedia.org/wiki/AMD_Athlon_64_X2

Man sieht dort, das der Level2 Cache exakt wie beim AthlonXP(Barton)
512kB beträgt. Nutzt man nun ein 64-Bit Betriebssystem wäre der
CPU-Cache von vergleichbarer Dimension wie der AMD Duron(Spitfire).
Einfach aufgrund der Tatsache das sich durch die 64-Bit Adressen durch
das Betriebssystem nicht nur der Arbeitsspeicher ansich um die Hälfte
schrumpft, sondern auch der Level2 Cache.
Gemessen am Level2 Cache im Verhältnis zur 32-Bit Architektur müsste der
AMD Athlon 64 X2 eigentlich einen anderen Namen bekommen.
Nämlich: AMD Duron64 Version 2005 (AMD Athlon32 Version 2005).

Das heisst, dass ein L2 Cache von 512kB einen Flaschenhals darstellt,
wie man ihn von der ersten Duron Generation her kennt.
Für 64-Bit Speicheradressen ist der Chache einfach zu klein.

http://de.wikipedia.org/wiki/Duron

Man könnte also davon ausgehen, das der Computer performanter läuft,
wenn man einen 32-Bit-Kernel installiert

2.)
nVidia 7900GS benutzt den Grafikchip G71
http://de.wikipedia.org/wiki/Nvidia-Geforce-7-Serie#Modelldaten

Dieser Chip hat jedoch kein AGP Anschluss und muss daher über einen
Brückenchip mit dem AGP-Bus verbunden werden.
Der letzte Grafikchip von Nvidia der einen echten AGP-Anschluss hat und
somit "nahtlos" in das Computersystem integriert werden kann ist der
NV40. Bekannt als Geforce 6800GT (Ultra)
http://de.wikipedia.org/wiki/Nvidia-GeForce-6-Serie#Grafikprozessoren

Das heisst, alle Grafikdaten müssen erst durch den Brückenchip
durchgeschleust werden.
Je nachdem wie billig der Brückenchip ist ergeben sich daraus
schwierigkeiten. Zwar kann der G71 mit 256-Bit Bandbreite bedient
werden, aber ob der Brückenchip dies unterstützt ist eine andere Sache.
Man kann ja einen 64-Bit Brückenchip verbauen und trotzdem auf die
Grafikkartenverpackung draufschreiben, dass dort ein 256-Bit
Grafikkartenchip drauf ist.

Werbebotschaft wie folgt:
Kaufen Sie unsere tolle Grafikkarte mit einem NvidiaChip der eine
265-Bit Speicheranbindung hat.

Das bedeutet nicht das der Brückenchip auch die Daten 256-Bit parallel
verarbeiten kann.
Unterstellt man pessimistisch der hersteller baut die billigste gurke
ein mit 64-Bit Datenbandbreite, benötigt man 4 taktzyklen um das Video
darzustellen. Das bedeutet dann, das die CPU 4 Taktzyklen pause machen
muss, bis der Brückenchip die Daten runtergewürgt hat, im Vergleich zu
einer direkten PCIe anbindung.

Man kann sich also im Umkehrschluss nur über die tatsächliche Bandbreite
SICHER sein, wenn man eine GF-6800GT Grafikkarte hat.

3.)

Das nächte Ding wäre dann ob im BIOS AGP-Fast Write aktiviert ist und
auch Fehlerfrei vom Mainboardhersteller implementiert ist, denn dann
müssen die Daten nicht erst über North/Southbridge geschaufelt werden.
Mit AGP-Fast-Writes kann die CPU die Daten direkt an die Grafikkarte
senden.

4.)
Das nächste Problem kann im bereich des IRQ-Routings liegen.
APIC und LocalAPIC. Bei MultiCPU Systemen anscheinend unverzichtbar,
aber bei Single-Core CPUs eher ein Problem, denn fehlerhafte
implementierungen führen unweigerlich zu timing-problemen und somit zu
wait-States.

5.)
Der Arbeitsspeicher sollte immer sychron laufen, selbst wenn der
asychrone Betrieb eine scheinbar höhere performance verspricht.
hat man also eine FSB333 CPU (166realtakt) und das BIOS meldet DDR-400
ist es unter umständen sinnvoller das RAM auf 333 runterzutakten.
weniger verlustleistung, kürzere latenzzeit (CL2,5 statt CL3) und keine
Wait-State durch Synchronbetrieb.

...........................................................
Zu eurer Kritik die auf diese Mail kommt erwarte ich dann auch plausible
begründungen.

MfG Francis

PS: Achja, warum ich mir meiner Sache so sicher bin?

http://www.jpl.nasa.gov/multimedia/rss/podfeed-hd.xml
= High definition videos featuring space science news and features from
NASA's Jet Propulsion Laboratory.

Dort fliegen jede Menge HD-Videos herum und das zu Auflösungen von bis
zu 1200x720 Pixel. Die lassen sich hier einwandfrei abspielen.
MB: Asus A7N8X-XE
GK: NV35 - GeForce FX 5900 XT
CPU: AMD Sempron 3000+ (Barton)
BS: Deb5
RAM: Hynix DDR-400 Dual-Channel

Hier lassen sich ruckel und störungsfrei alle x264 Videos bis 1280x720
pixel abspielen. Locker und leicht. Die Prozessorlast schwankt zwischen
40-70% laut TOP. Vollbild oder Desktopmode (Gnome) ist irrelevant.
Player ist Totem-Xine. NVidia 3D Treiber ist NICHT installiert, es läuft
nur über das nv-kernelmodule.


Reply to: