[Date Prev][Date Next] [Thread Prev][Thread Next] [Date Index] [Thread Index]

Re: Notebook zwei Grafikkarten Intel und Nvidia



Am 21.05.2011, 09:46 Uhr, schrieb Martin Steigerwald <Martin@lichtvoll.de>:


Ja, aber den "Intel-Krempel" kann man sich trotzdem vors Knie nageln
oder unter die Vorhaut rollen.

Also ich find das mit dem ThinkPad T520 mit dem 15,4 Zoll Full HD-Display
gerade mal ausgesprochen nett mit der Intel HD 3000-Grafik!

In diesem Fall bezog sich "Intel-Krempel" auf den Grafikchip. So ein bischen FullHD ist ja ganz nett, aber das liegt nicht an der Grafikeinheit, sondern an der Gesamtleistung eines Computers, also die Anbindung des Arbeitsspeichers und der Grafikeinheit wie zum Beispiel durch PCI-Express, AGP, PCI oder ISA. Man muss INtel im zusammenhang mit Microsoft sehen, weil die beiden Konzerne der Menscheit im gegenseitigen einvernehmen ihren CHIP-Müll aufgezwungen haben.

Und nun der CHIP.
http://de.wikipedia.org/wiki/Intel_GMA#GMA_3000

Drückste auf den Link siehste, dass der GMA3000 Grafikhub im Jahr 2006 der Menschheit zur Verfügung gestellt wurde, also 4 Jahre nach der veröffentlichung von Windows XP/2003 UND es ist der erste CHIP der voll DirectX 9.0c kompatibel ist.

Überall steht drauf designed for Windows und tatsache ist, dass man keinen fertigen "Wintel" Computer kaufen konnte, weil Intel das nicht leisten kann.

Naja und zu SHARED-Memory sag ich nichts mehr, das Thema (Geldeinspar-Problem) dürfte allgemein bekannt sein.

Das du FullHD glotzen kannst liegt am Mainboard und dem Fortschritt der Computertechnologie insgesamt.

Würde man deinen ach so tollen "Intel-Chip" auf eine ISA-Grafikkarte kleben, würde nicht nur die 3,5 MB/sek Busgeschwindigkeit die Ausgabe unmöglich machen, sondern den Rest des Computers vollständig lahm legen, denn bei der 3D-Ausgabe benötigt der Computer einen IRQ als Rückkanal.

Damit verschwindet Intel als "Alleinstellungsmerkmal"

Würfel geht laut kwin aus KDE 4.6.2 auf ca. 30 fps runter. Da wäre die
NVidia mit großer wahrscheinlich deutlich schneller. Wenn ich aber

Shared Memory

ansonsten 50-60 fps hab, dann kann es mir grad egal sein, solange ich
keine aufwendigeren 3D-Spiele spielen möchte.

Teure kleine Brötchen.

Das mit dem geringeren Stromverbrauch habe ich immer wieder gelesen und
gehört von Kollegen, die Intel-Grafik, Vorgänger von Sandy Bridge,
einsetzen.

Ist auch so, weil die NVidia-Dinger aus "Leistungsgeilheit" der Kunden immer total überdreht sind.
Oder sind 120 Watt Wärmeleistung als Verlust akzeptabel?

Wenn man die Chips aber auf ihre natürliche von Silizium aushaltbare Geschwindigkeit taktet kommt die Stromersparnis von selbst, weil es sich eingentlich nicht um Stromparen handelt, sondern darum, dass die anderen den Strom skrupellos verschwenden.

Außerdem ist Stromparen im Computerzeitalter ziemlich einfach, wenn man statt Arbeitsspeicher, den CPU´s einen 512 Megabyte großen L2 Cache verpassen würde. Man könnte dann die ganzen 3 Ghz CPU´s wieder auf 300 - 600 Mhz runterdrehen ohne Performanceverluste hinnehmen zu müssen.


Ich vermute mal, dass da im Linux-Kernel noch Optimierungen möglich sind.

Bis dahin gibts aber auch noch den 9-Zellen-Akku ;)


Ich halte nächste Woche eine Schulung und werd dann mal berichten, ob das
ThinkPad zumindest mit den 9-Zellen-Akku einen ganzen Tag durchhält.

Ja genau, nimmste die 9 Zellen und nen Handkarren.
Schiebt sich leichter :-)
und schont die Skelettstruktur und damit deine Gesundheit!


--
Erstellt mit Operas revolutionärem E-Mail-Modul: http://www.opera.com/mail/


Reply to: