News:

Willkommen im Notebookcheck.com Forum! Hier können sie über alle unsere Artikel und allgemein über Notebook relevante Dinge disuktieren. Viel Spass!

Main Menu

Nvidia: Startschuss für die GeForce-800M-Serie

Started by Redaktion, March 12, 2014, 17:01:46

Previous topic - Next topic

Redaktion

Insgesamt sieben verschiedene Grafikkarten schickt Nvidia zum Start der GeForce-800M-Serie ins Rennen, darunter auch mehrere Modelle auf Basis der jüngst vorgestellten Maxwell-Architektur. Das neue Flaggschiff GeForce GTX 880M setzt dagegen weiterhin auf Kepler und verspricht nur leichte Performance-Zuwächse.

http://www.notebookcheck.com/Nvidia-Startschuss-fuer-die-GeForce-800M-Serie.112964.0.html

Deutschmaschine

#1
Auch wenn ich mit meinem Beitrag auf den Test des Schenker XMG P304 (Clevo W230SS) verweise, passt es hier doch besser.

Man bedenkt am besten mal, dass die 860M die 765M ablöst und somit eigentlich die gleiche TDP haben sollten und dort in den Benchmarks zwischen 15 und 45 Prozent Steigerung alle Werte vorhanden sind. Selbst wenn wir das auf die Treiber schieben, sind das sicher immernoch bis zu 30%.

Da kann man sich ja ausrechnen, wie krass eine Maxwell-880M (880MX?) in 28nm wäre. Die sollte ja dann rein rechnerisch so schnell wie eine Kepler mit 1920 Rechenwerken sein (angenommen wenn 765M×2=780M, dann 860M×2=880M) - und das wären genau die 30%- whooohohoo. Und dann kommt ja noch der 20nm-Prozess ins Spiel ^^

Sentenced666

Sehr interessant.
Muss ich sagen... Leider solls ja erst zum Ende des Jahres kommen, wenn man den Medien glauben darf. Aber wenn die 860 in der Mid-Range des Gaming vom Preis rangiert, dann wird das ein harter Knochen für alle 770er und erst recht für AMD. Was die 880er bringt, das traue ich mir gar nicht vorzustellen.
--
Mobil: Schenker Compact 17 | i7-7700HQ | GTX 1070 | 32GB | 250GB 960Evo NVMe | 1 TB Crucial MX500 | 250GB 850 Evo | Win10 64 bit | BJ 08/17

Mobil alt: Schenker W703 | i7-4700MQ | GTX770M | 16GB | 250GB 840 Evo | 750GB HDD |  Win10 64bit | Bj 06/13

SCARed

ja, ich bin auch sehr sehr angetan. okay, mir reicht die 860M völlig. aber ja, die neue 880M, wenn sie denn mal als Maxwell kommt, dürfte auch einen echten schub bedeuten.

bis dahin schaue ich aber mal, was der markt an NBs mit der 860M bereit hält.

Krake

Tolle Sache mit Maxwell, und auch die GTX Zusatzfeatures klingen ganz nett.

Aber im Detail, besonders bei Battery Boost, lässt mir meine Unwissenheit riesige Fragezeichen wachsen. 

Habe leider keine Erfahrung mit Optimus und den Einstellungsmöglichkeiten, die man dabei hat. Auch allgemeine Grundkenntnisse bezüglich des Stromverbrauchs fehlen mir offenbar, denn ich frage mich wieviel Strom eine aktive GPU denn nun tatsächlich verbraucht.?! BatteryBoost soll ja  über eine FPS Beschränkung erreichen Energie zu sparen. Also so was würde ich mir auch für den stationären Betrieb wünschen. (Würde mir wünschen Laptops nach max. Energieverbrauch sortieren zu können, da der neue Schleppi nur ungern mehr verbrauchen sollen darf.)

Je länger ich darüber nachdenke, umso klarer wird mir, dass mir da grundlegende Informationen zum Arbeitsprinzip eines PCs oder sogar allgemein von elektrischen Geräten fehlt. Wie geht das zum Beispiel bei E-Motoren? Erinnere mich da ganz dunkel an Trafos bei Modelleisenbahnen. Oder auch nur ne simple Glühbirne ... .

Also mal ganz laienhaft gesagt: Wie bestimmt die GPU wieviel Stromhunger sie hat und wie sagt sie das dann der Steckdose/Netzteil/Akku und bekommt dann auch noch genauso viel wie sie braucht?

Hat da jemand einen Link auf ne gute Informationsquelle zur Hand?

Danke schonmal im vorraus.


Bild: http://creativecommons.org/licenses/by-nc/3.0/

Krake

Hab's nochmal sacken lassen und versuche's jetzt mal selbst zu beantworten.

1. Glühbirne: Spannung liegt an. Beim Bestreben Spannung abzubauen fliesst Strom durch die Birne und animiert diese dann dazu bauartabhängig verschiedenste Strahlungen abzugeben.

2. E-Motor: Spannung liegt an und wird in magnetische Felder umgewandelt, die dann rotierende oder gerichtete Bewegungen animieren.

Wird die Spannung verringert sinkt auch die mögliche Leistungsaufnahme (Stromfluss). (Hier bin ich mir ein wenig unsicher wie das genau abläuft. Transformatoren, Dimmer, [gestufte und stufenlose Leistungsregler]). Möglicherweise gibt's da auch noch mehr.

3. Graka und andere elektr. Bauteile: prinzipiell wie oben, bloss wird die tatsächliche Leistungsaufnahme (Stromfluss) durch die Anzahl der tatsächlich "freigeschalteten Wege" bestimmt. Elektronische Schalter bestimmen quasi automatisch wieviele Stromkreisläufe - je nach Aufgabenlage - freigegeben werden. Keine Ahnung wie diese Schnittstelle zwischen den einzelnen Bauteilen wirklich funzt oder auch zwischen Software/Eingabegeräten und Hardware.

Lange Rede, (etwas) kürzerer Sinn:

Optimus funktioniert u.a. deshalb so gut, weil Nvidia für möglichst viele Programme "Profile" erstellt hat, die bestimmen, ob die GPU aktiviert wird oder nicht. Irgendwie gibt's da auch noch mehr (scheinabr wird die tatsächliche Leistungsaufnahme auch noch gemessen und in Zeitintervallen abgeglichen, oder so ähnlich).

Da BatteryBoost ja im Zusammenhang mit GeforceExperience daherkommt und somit ganz klar an bestimmte unterstützte Spiele gekoppelt ist (Profile), vermute ich mal, dass Nvidia die Leistungsaufnahme durch das Deaktivieren von Teilen der GPU - je nach Spiel und gewünschter Framerate - erreicht. Eventuell gibt's auch ein Benchmarking-Tool, das man vorher durchlaufen lassen kann, um die BatteryBoost-Steuerung genau auf seine eigene Konfiguration abzustimmen.

*Selbstgespräch Ende* :)
Bild: http://creativecommons.org/licenses/by-nc/3.0/

Sentenced666

Fein erklärt... kann man glaube ich so stehen lassen.

So freue ich mich auf einen Test eines Clevos mit 870er (Kepler dem vernehmen nach), angekündigt durch NBC für die kommenden Tage.

Das wird dann Klarheit bringen, ob es die Technik auch auf Kepler geben wird und auch, wie viel mehr Plus in den High-End Regionen zu erwarten sein wird.
--
Mobil: Schenker Compact 17 | i7-7700HQ | GTX 1070 | 32GB | 250GB 960Evo NVMe | 1 TB Crucial MX500 | 250GB 850 Evo | Win10 64 bit | BJ 08/17

Mobil alt: Schenker W703 | i7-4700MQ | GTX770M | 16GB | 250GB 840 Evo | 750GB HDD |  Win10 64bit | Bj 06/13

Krake

Danke für die Rückmeldung, fühlte sich schon etwas einsam an so mit dem eigenen Echo ;)

Gamestream finde ich auch sehr spannend, wenn auch eher weniger im Notebookbereich als im Heimnetzwerkbereich. Stelle mir vor die Geräuschkulisse ist gut verstaut, während man einen netten handlichen und lautlosen Client  (verbrauchsarmes, leichtes Ultrabook, oder Tablet?) auf dem Schoß hat ... . Die Details aber ... ich lass es lieber erst mal sein genauer darüber nachzudenken ... :)
Bild: http://creativecommons.org/licenses/by-nc/3.0/

Deutschmaschine

@Sentenced666: Da die 870M eine übertaktete 680M ist, sollte man die Leistung eigentlich erahnen können. Sie wird weit über der 770M liegen und wohl etwas langsamer als die 780M sein. Interessant wird lediglich der Stromverbrauch und damit zusammenhängend die Hitzeentwicklung sein. Auf deutsch: Wie viel effizienter arbeitet die 870M gegenüber der 680M. Es wäre schon ein starkes Stück, wenn die jetzt eine 680M bringen, die trotz enormer Takterhöhung weniger verbraucht. Ähnliches hat man ja schon bei der 680MX und der folgenden 780M geschafft.

@Krake: Ergänzend möchte ich noch möglichst einfach erklären, wie der Stromverbrauch entsteht. Eine Grafikkarte besteht heutzutage nicht wie eine CPU aus 2, 4 oder 8 Kernen, die eigentlich Prozessorzahl liegt heutzutage im 3- bis 4-stelligen Bereich. Während die Einstiegsmodelle höchstens 500 Kerne (gerne auch Shader, CUDA-Cores oder ALUs genannt) haben, kratzen die Desktop-Top-Modelle an der 3000er-Marke. Je mehr Kerne, umso mehr Strom wird natürlich verbraucht. Dazu kommt die Taktfrequenz. Umso höher man taktet, umso mehr Saft wird auch benötigt*.  Deshalb müssen einige Übertakter auch die Spannung erhöhen.

Die TDP gibt an, wie viel Verlustleistung - also Abwärme - eine CPU oder GPU erzeugt.  Diese gibt also grob gesehen den Stromverbrauch unter Last an. Im Laptop sind wir da heutzutage bei 100 Watt TDP maximal. Die gängigen CPUs verbrauchen 37 bis 57 Watt. Mein P370SM zieht dank potenter CPU und 2 Hochleistungsgrafikkarten dementsprechend gerne mal 250 bis 300 Watt aus der Dose, während sparsame Ultrabooks nicht mal auf 70 Watt kommen.

Wenn eine CPU oder GPU aber nicht ausgelastet ist, verbraucht diese viel weniger Strom. Ich erkenne das daran, dass meine Grafikkarten bei Far Cry 3 und 70 FPS ca. 70 Grad Celsius warm werden. Schalte ich VSync an, sodass nur 60 Bilder pro Sekunde berechnet werden, geht die Temperatur gleich um ein paar Grad runter. Nichts anderes macht Battery Boost. Es begrenzt einfach nur Bildrate, damit die Grafikkarte nicht sinnlos rechnet und unnötig Strom verbraucht.

Nvidia Optimus und AMD Enduro sind auch tolle Sparmaßnahmen. Mein Laptop ohne dieses Feature zieht im Leerlauf trotzdem noch 50 bis 60 Watt, weil beide Grafikkarten an sind. Sie laufen zwar nur auf einem sehr niedrigen Takt, aber gerade dort sind Grafikkarten sehr ineffizient. Wenn man diese nun ausschalten kann, verbraucht diese kein Strom mehr. Im Office-Betrieb ist nämlich selbst die im Prozessor integrierte Grafikeinheit noch unterfordert ^^

*Der Stromverbrauch steigt nicht linear mit dem Takt. Darauf genauer einzugehen wäre müßig und würde meine Kompetenzen übersteigen.

PS: Falls ich irgendwo Grütze geschrieben habe, möge man mich bitte korrigieren. Zu meiner Verteidigung, ich war bis eben noch des Barkeepers bester Freund ;)

Krake

#9
Hallo Deutschmaschine

Danke für den Hinweis mit Vsync. Falls die Erklärung hier nicht vollkommen veraltet ist, hat vsync primär nix mit Strom sparen zu tun. In der Praxis bringt's aber wohl schon was, wie du auch sagst. Hab bei der Suche festgestellt, dass es zusätzlich ja verschiedene "Frame Rate Limiter" auch schon länger gibt. Wie es genau funktioniert, dass Grakas (und auch die CPU) weniger Strom schlucken bei weniger Frames weiss ich nicht und übersteigt - wie du so schön sagst - Kompetenzen ;).

Wie sowas dann noch mit Optimus zusammenarbeitet, bzw. Input Lags entstehen ist dann nochmal was anderes.

Nehme für mich mit, dass Leistung und Leistungsaufnahme oft über anliegende Spannungen  geregelt wird. Wie das dann in Beziehung zu Kern-/Speichertaktung steht, hmm k.A.!? Auch scheinen volle Framebuffer die GPU in Leerlauf versetzen zu können.

Naja, ein Wespennest das Thema.
Bild: http://creativecommons.org/licenses/by-nc/3.0/

feifelm1983

Ich lass mir den Artikel jetzt mal durch. Ich habe ein Model aus 2012. Schade das 3D Vision noch nicht mit Optimus zusammen arbeitet und das HDMI 2.0 auch noch nicht unterstützt wird.

Deutschmaschine

Quote from: Krake on March 21, 2014, 15:30:21
Wie es genau funktioniert, dass Grakas (und auch die CPU) weniger Strom schlucken bei weniger Frames weiss ich nicht und übersteigt - wie du so schön sagst - Kompetenzen ;).
Das eigentliche Stromverbrauchen kommt durch das Rechnen. Für jede Rechenoperationen werden Einsen und Nullen, also verschiedene Spannungen, durch die ganzen elektronischen Bauteile gejagt. Dementsprechend verbrauch diese unter Volllast so viel Strom, wie sie kann. Wenn die Auslastung nicht 100% ist, dann heißt das, dass für diese Zeitspanne nicht alle ALUs/Ausführungseinheiten/CUDA-Cores/Shader/was-auch-immer eine Berechnung durchführen und dementsprechend dort kein Strom durchfließt.

Wie immer betone ich: Es ist eine nur laienhafte Erklärung. Zu 50%, damit du (Krake) es verstehst, zu 50%, weil ich es auch nicht viel besser weiß ^^

Quick Reply

Warning: this topic has not been posted in for at least 120 days.
Unless you're sure you want to reply, please consider starting a new topic.

Name:
Email:
Verification:
Please leave this box empty:

Shortcuts: ALT+S post or ALT+P preview