Re: Notebook zwei Grafikkarten Intel und Nvidia
Am 21.05.2011, 09:46 Uhr, schrieb Martin Steigerwald <Martin@lichtvoll.de>:
Ja, aber den "Intel-Krempel" kann man sich trotzdem vors Knie nageln
oder unter die Vorhaut rollen.
Also ich find das mit dem ThinkPad T520 mit dem 15,4 Zoll Full HD-Display
gerade mal ausgesprochen nett mit der Intel HD 3000-Grafik!
In diesem Fall bezog sich "Intel-Krempel" auf den Grafikchip. So ein
bischen FullHD ist ja ganz nett, aber das liegt nicht an der
Grafikeinheit, sondern an der Gesamtleistung eines Computers, also die
Anbindung des Arbeitsspeichers und der Grafikeinheit wie zum Beispiel
durch PCI-Express, AGP, PCI oder ISA.
Man muss INtel im zusammenhang mit Microsoft sehen, weil die beiden
Konzerne der Menscheit im gegenseitigen einvernehmen ihren CHIP-Müll
aufgezwungen haben.
Und nun der CHIP.
http://de.wikipedia.org/wiki/Intel_GMA#GMA_3000
Drückste auf den Link siehste, dass der GMA3000 Grafikhub im Jahr 2006 der
Menschheit zur Verfügung gestellt wurde, also 4 Jahre nach der
veröffentlichung von Windows XP/2003 UND es ist der erste CHIP der voll
DirectX 9.0c kompatibel ist.
Überall steht drauf designed for Windows und tatsache ist, dass man keinen
fertigen "Wintel" Computer kaufen konnte, weil Intel das nicht leisten
kann.
Naja und zu SHARED-Memory sag ich nichts mehr, das Thema
(Geldeinspar-Problem) dürfte allgemein bekannt sein.
Das du FullHD glotzen kannst liegt am Mainboard und dem Fortschritt der
Computertechnologie insgesamt.
Würde man deinen ach so tollen "Intel-Chip" auf eine ISA-Grafikkarte
kleben, würde nicht nur die 3,5 MB/sek Busgeschwindigkeit die Ausgabe
unmöglich machen, sondern den Rest des Computers vollständig lahm legen,
denn bei der 3D-Ausgabe benötigt der Computer einen IRQ als Rückkanal.
Damit verschwindet Intel als "Alleinstellungsmerkmal"
Würfel geht laut kwin aus KDE 4.6.2 auf ca. 30 fps runter. Da wäre die
NVidia mit großer wahrscheinlich deutlich schneller. Wenn ich aber
Shared Memory
ansonsten 50-60 fps hab, dann kann es mir grad egal sein, solange ich
keine aufwendigeren 3D-Spiele spielen möchte.
Teure kleine Brötchen.
Das mit dem geringeren Stromverbrauch habe ich immer wieder gelesen und
gehört von Kollegen, die Intel-Grafik, Vorgänger von Sandy Bridge,
einsetzen.
Ist auch so, weil die NVidia-Dinger aus "Leistungsgeilheit" der Kunden
immer total überdreht sind.
Oder sind 120 Watt Wärmeleistung als Verlust akzeptabel?
Wenn man die Chips aber auf ihre natürliche von Silizium aushaltbare
Geschwindigkeit taktet kommt die Stromersparnis von selbst, weil es sich
eingentlich nicht um Stromparen handelt, sondern darum, dass die anderen
den Strom skrupellos verschwenden.
Außerdem ist Stromparen im Computerzeitalter ziemlich einfach, wenn man
statt Arbeitsspeicher, den CPU´s einen 512 Megabyte großen L2 Cache
verpassen würde. Man könnte dann die ganzen 3 Ghz CPU´s wieder auf 300 -
600 Mhz runterdrehen ohne Performanceverluste hinnehmen zu müssen.
Ich vermute mal, dass da im Linux-Kernel noch Optimierungen möglich sind.
Bis dahin gibts aber auch noch den 9-Zellen-Akku ;)
Ich halte nächste Woche eine Schulung und werd dann mal berichten, ob das
ThinkPad zumindest mit den 9-Zellen-Akku einen ganzen Tag durchhält.
Ja genau, nimmste die 9 Zellen und nen Handkarren.
Schiebt sich leichter :-)
und schont die Skelettstruktur und damit deine Gesundheit!
--
Erstellt mit Operas revolutionärem E-Mail-Modul: http://www.opera.com/mail/
Reply to: