News:

Willkommen im Notebookcheck.com Forum! Hier können sie über alle unsere Artikel und allgemein über Notebook relevante Dinge disuktieren. Viel Spass!

Main Menu

Post reply

The message has the following error or errors that must be corrected before continuing:
Warning: this topic has not been posted in for at least 120 days.
Unless you're sure you want to reply, please consider starting a new topic.
Other options
Verification:
Please leave this box empty:

Shortcuts: ALT+S post or ALT+P preview

Topic summary

Posted by RobertJasiek
 - September 09, 2020, 20:17:09
Ich denke, das liegt an den Prioritäten, die das Nvidia-Management gesetzt hat. Sie haben für "Nutzbarkeit in Desktops bei maximaler Leistung zu gewünschten EVPs" optimiert. Mehr Watt sind nutzbar, weil die Kühlung (angeblich) entsprechend verbessert wurde. Wer weniger Watt will, kann langsamere Karten kaufen oder gleich eine integrierte nutzen. Wer aber als Gamer oder Prosumer Top-Leistung braucht, der kann sie nun bezahlen und nutzen. Dafür bin ich dankbar, aber natürlich wäre mir das Gleiche für 1 Watt und 1 Euro deutlich lieber. Dort sind wir aber wohl erst in 15 oder 20 Jahren, das Heutiges so sein wird.
Posted by Chosejuhus
 - September 09, 2020, 18:12:25
Quote from: Anonybus on September 09, 2020, 00:13:43
dann spiel doch im wald mit stöcken das verbraucht null strom und sieht NOCH BESSER aus
Solche Erinnerungen habe ich auch. Ja, das waren die Zeiten.

Rechenleistungserhöhung geht nach einer Entwicklungszeit ohne Stromverbrauchserhöhung. Darum wozu in nächster Generation von gleicher Model unnützliche Erhöhung? Ich meine 1080 - 2080 - 3080? Daß darüber stehendes Model, wie 3090, mehr Strom (wüstes du es?), als 3080 bezieht, verstehe ich.
Posted by Anonybus
 - September 09, 2020, 00:13:43
Quote from: Chosejuhus on September 08, 2020, 17:25:03
Kein Kunststück beim dem Mehrstromverbrauch. So hätten sie das auch früher machen können.


dann spiel doch im wald mit stöcken das verbraucht null strom und sieht NOCH BESSER aus
Posted by Chosejuhus
 - September 08, 2020, 17:25:03
Kein Kunststück beim dem Mehrstromverbrauch. So hätten sie das auch früher machen können.
Posted by RobertJasiek
 - September 08, 2020, 07:05:38
Ich habe die vergangenen Tage jede Menge Benchmarks gelesen. Je nach Anwendung / programmierter Software ist 3080 im Vergleich zu 2080TI so viel schneller: 27% - 100%, meist 30%-50%. Hier findet sich eine Vorhersage für Deep Learning:

timdettmers dot com/2020/09/07/which-gpu-for-deep-learning/
Posted by Redaktion
 - September 07, 2020, 19:27:26
Die Nvidia GeForce RTX 3080 hat sich bei CompuBench 2.0 gezeigt und dabei die GeForce RTX 2080 weit hinter sich gelassen, selbst die einst so mächtige RTX 2080 Ti kann der deutlich günstigeren Ampere-Grafikkarte nicht annähernd das Wasser reichen. Es bleibt spannend, ob AMD mit der Navi-GPU der nächsten Generation nachziehen kann.

https://www.notebookcheck.com/Die-Nvidia-GeForce-RTX-3080-ist-laut-neuer-Benchmarks-etwa-doppelt-so-schnell-wie-die-RTX-2080.492398.0.html