News:

Willkommen im Notebookcheck.com Forum! Hier können sie über alle unsere Artikel und allgemein über Notebook relevante Dinge disuktieren. Viel Spass!

Main Menu

Post reply

The message has the following error or errors that must be corrected before continuing:
Warning: this topic has not been posted in for at least 120 days.
Unless you're sure you want to reply, please consider starting a new topic.
Other options
Verification:
Please leave this box empty:

Shortcuts: ALT+S post or ALT+P preview

Topic summary

Posted by RobertJasiek
 - September 21, 2020, 14:12:42
Nvidia-Grafikkarten-Geschwindigkeit: etwa 2x 2080 TI ist mir schnell genug, weil dann die Go-KI klar stärker als alle Menschen spielt. 3080 oder 3090 sind bei Deep Learning ca. 1,5x 2080 TI, was bedeutet, dass ich mit 1 Karte der KI mehr Denkzeit zugestehen muss. 2x 3080 hingegen wären klar schnell genug ohne viel Warten. Ampere kratzt also an der "Gut-genug-Schwelle", reißt sie aber noch nicht mit 1 Karte.

Tiger Lake 7,5W: Das ist thermisch die Größenordnung meines Passiv-Office-Barebones. Ich könnte also, wenn ich es mir leisten wollte, i3 7100U ersetzen, welcher aber für meine Zwecke gut genug ist. Der Barebone mit vielen Kühlrippen und großer, dicker Metallaußenfläche wird lauwarm. Daraus schließe ich, dass 7,5W für ein kleines, leichtes passives Tablet schlichtweg noch zu viel wären - es würde unangenehm heiß besonders im Sommerhalbjahr im Freien. Mit 4,5W hingegen sollte es im Tablet kein Problem sein. Auch bei dieser Anwendung geht es also um die Schwelle zwischen unzureichend und gut genug.
Posted by JKM
 - September 21, 2020, 11:58:48
@JKM, zu deiner Info: AMD-Grafikkarten sind für mich mangels Softwareunterstützung keine Alternative. Ich brauche Nvidia-Karten. Wie es softwaretechnisch mit Intel wäre und was an Geschwindigkeit von dessen kommenden Karten zu erwarten wäre, weiß ich nicht.

Aktuelle spezielle Wünsche kann per se nur der aktuelle Marktführer erfüllen, der eben als Marktführer in der Regel der Konkurrenz voraus ist.

Grundsätzlich scheint es wieder eine Generation zu sein, die eine Wende bringen kann, die auch die Priorität der Software-Unterstütztung deutlich ändern kann. Auch wenn AMD die schnellste Grafikkarte bringen würde, sowie neuste Spezial-Software, wird es eine lange Zeit (Quartalen & Jahre) dauern, bis Einzelwünsche für aktuelle Bedürfnisse erfüllt werden, weshalb aus deiner Sicht völlig egal ist, was Nvidia wirklich liefert, wenn nur Nvidia dann in Frage kommt.

Aber die Performance scheint bei dir auch eine Relevanz zu besitzen, denn als der  Tiger-Lake-Y nicht wie du vorher dachtest in 4,5-7,5W sondern in 15W mit 7,5W-cTDP kam, hatte dich dieser Y-Tiger-Lake dann deutlich weniger interessiert.

In solchen Fällen,
bei dem die Konkurrenten ziemlich zeitglich ihre Produkte auf dem Markt bringen, heißt es immer auf die Produkte beider zu warten. Auf Intel würde ich aber ned warten, weil man schwer erwarten kann, dass diese mit ihrern ersten Grafikkarten-Wurf gleich auf Konkurrenz-Niveau kommmen. Nachdem Intel schon so viele eigene Techniken & Architekturen aufgegeben haben, dass sie jederzeit ein paar ihrer vielen Deep-Learning-Technik auch in naher zukunft aufgeben.
Posted by RobertJasiek
 - September 21, 2020, 11:09:29
@pm, die Software, die ich nutzen möchte, profitiert mit fast Faktor 2 der Geschwindigkeit von 2 GPUs kommunizierend über den PCIe-Bus, aber nutzte SLI / Nvlink eh nicht, selbst wenn man eine Brücke installiert hätte. Es hängt eben davon ab, wie der Programmierer programmiert hat. Für mich als Anwender ist es also softwaretechnisch kein Problem, von 2 Grafikkarten zu profitieren; ich muss nur einmal in einer Konfigdatei angeben, dass das Programm beide nutzen soll. Das Problem ist nur der Einbau von 2 Karten ins Mainboard und Gehäuse. Ich verstehe jetzt, warum solvente KI-Forscher Wasserkühlung bevorzugen: jede Karte braucht damit nur 1 Slot Platz.

Eine andere Erwägung habe ich aber noch: soll ich jetzt wirklich 2 Karten kaufen oder besser 1 und, sobald es 5nm-Karten gibt, dann stattdessen eine neue? Wann, meint ihr, kommt 5nm zu den "Gaming"-Grafikkarten?

@JKM, zu deiner Info: AMD-Grafikkarten sind für mich mangels Softwareunterstützung keine Alternative. Ich brauche Nvidia-Karten. Wie es softwaretechnisch mit Intel wäre und  was an Geschwindigkeit von dessen kommenden Karten zu erwarten wäre, weiß ich nicht.

@Felsenherz, CPU-Bottleneck hängt stark von der Anwendung / Software ab. Bei CPU-lastiger Software / Einsatzszenarien (zB 1440p 3D-Gaming) gibt es den CPU-Bottleneck. Bei GPU-Last (zB 4K 3D-Gaming) umgekehrt, wenn die CPU halbwegs schnell ist (etwas 3700X aufwärts).
Posted by Felsenherz
 - September 21, 2020, 10:37:57
Hallo,
anhang der bisherigen Benchmarks für die RTX 3080 kann man mit hoher Wahrscheinlichkeit davon ausgehen, dass die CPU das Bottleneck ist. Die 3080 wird bereits in vielen Spielen von der CPU ausgebremst, umso stärker die 3090.
Unterhalb von Ryzen 9 3950X oder i9-9960X ist die Aussagekraft der Benchmarks eher begrenzt.

Gruß
Felsenherz
Posted by JKM
 - September 21, 2020, 10:32:47
Das ganze wird eh erst weiter relevant und aussagekräftig, wenn DLSS und RTX weiter ausreifen und von Developern besser eingesetzt werden.
Gleiches damals mit der Rasterisierung.
Abwarten. Es ist jedenfalls ein super Zeitpunkt um endlich aufzurüsten.


Ich würde RTX 3090 mit Thermi (GF1x0) vergleichen.
GF1x0 hatte damals extrem viel Tessellation,
welches damals in den Spiele kaum genutzt wurde,
aber offensichtlich den Stromverbrauch immes steigerte.

Wobei man jetzt nicht weiß,
ob RTX 3090 ein GTX 480 (Thermi) oddr ein GTX 580 ist.
Die GTX 480 konnte mit dem üppigen Tressellation-Units (primär für zukünftige Performance) den Rest (Shaders & Co) nicht so hoch steigern, sodass diese mit ihren damalsigen Extremen Stromverbrauch kaum (+15%) schneller als die Konkurrenz war. Erst mit der GTX 580, welche den selben Stromverbrauch wie die GTX 480 hatte, aber einen deutlich größeren und relevanteren Momentan-Performance-Abstand zur Konkurrenz hatte. Erst recht, als die Konkurrenz mit der 6000er-Serie nochmals die Tessellation verdoppelten, und etwas im Stromverbrauch zulegte.

Die Frage ist eben,
wie viel von dem üppigen RTX & DLSS-Kernen kann Nvidia jetzt auf die Straße bringen, weil diese Einheiten statt mehr Shaders-Einheiten genommen wurden. Vorallem, was die mehr als Verdoppelung der Shader-Einheiten genau aufsich hat, die die Performance alles anders als Verdoppelen, sondern nur etwas steigern konnten.

Es gibt eben noch eine andere Ähnlichkeit.
Die GTX 480 hatte massiv mit Fertigungs-Problemen zu kämpfen.
Theoretisch die 3090 auch, aber diese ist Nvidia ausgewichen, indem sie eine veraltete und ausgereifte 8nm (~60 Mrd. Transistoren pro mm²) anstatt der 7nm von TSMC (95 Mrd. Transistoren pro mm²), welche eben auch noch deutlich energie-effizienter sein soll.

Deshalb wäre es nicht überraschend, wenn sich das gleiche Spiel von damals wiederholt, und der 3090 zum Thermi II wird. Denn ein Big-Navi mit wäre absolut gesehen so groß wie ein 3080, aber relativ (Fertigungsbereinigt) gesehen so groß wie ein 3090.

Das könnte interressant werden, weil AMD schon in der Vergangenheit oft oder in der Regeln bei gleicher Struktur-Größe mehr Performance/mm² erreichte als Nvidia.

Und wenn ein Big-Navi mit RDNA2 wirklich +50% Performance-pro-Watt zulegen sollte, sowie diese Betrachtung auf die Performance-Spitze bezogen wurde, dann könnte es noch interessanter werden, weil Nvidia ebenfalls bezogen an der Performance-Spitze jetzt auch nur +50% an Effizienz zulegte. Hört sich an gleichstand an, ist es aber nicht, weil AMD diese +50% über die Architektur erreicht und Nvidia über die Fertigung, und somit die Effizientsteigerung über die Fertigung der 7nm-Strukturgröße schon beim Navi1 bzw. Navi 10 holte.

Deshalb wäre es eigentlich garnicht so eine große Überraschung,
wenn AMD mit Big-Navi wieder mal an Nvidia (mit den Fertigungs-Vorteil) zumindestens temporär wie damals beim Thermi I (480) vorbeizieht und AMD den 4080 öh sorry 3080 & 3090 zum Thermi II degratiert. Trotzdem kann man es nicht erwarten, aber die Produkt-Einführung der Next-Gen-Grafikkarten ist jetzt so spannend wie selten in den letzten 20 Jahren.

Ob 3090 (aktuelle) enttäuschend wird, oder nicht hängt von 2 Faktoren ab.
1) Die Performance & Effizienz der Konkurrenz.
2) Die Höhe des 3090 Preis, die bei zu wenig gewünschter Performance eben zu negativen Emotionalen Reaktionen führt.

Posted by pm
 - September 21, 2020, 09:39:29
Hallo Robert, ich möchte ja nicht deine Träume von einem 3080er SLI Verbund zerstören, aber die Möglichkeit existiert gar nicht mehr, 3080 unterstützt kein SLI. Lediglich die 3090er tut das (noch).
Posted by RobertJasiek
 - September 20, 2020, 21:37:35
Ca. +15% hatte ich erwartet.

Ein anderer Tester hat im Schnitt +19% mit Schwankung 15 - 21% bei 3D-Spielen festgestellt.

Da bei 3080 1/8 der Einheiten gesperrt sind, ist bei der 3090 mit allen Einheiten grob 14,3% mehr zu erwarten. Wegen besonderer GPU-Funktionalität bei passenden Anwendungen auch mehr. Wegen Ineffizienz durch Idle und CPU-, Speicher- und Bus-Interaktion aber weniger. Bei höherer Taktfrequenz wiederum mehr bei mehr Abwärme.

Dass also der Tester hier 5 - 11% beobachtet hat ist gut nachvollziehbar.

Die 3090 sollte man nutzen, wenn einem die 5 - 30% mehr Geschwindigkeit für die genutzten Anwendungen gerade den dringend benötigten Extrakick geben (vielleicht 3D-Gaming mit 8K bei 60+FPS?), sie den Speicher 24GB unbedingt brauchen oder man anspruchsvolle Anwendungen (Deep Learning lernen lassen, Finanzmathematik, Geld schürfen usw.) hat, wo das Schnellste gerade gut genug ist oder man eh mehrere / viele GPUs braucht. Für den letzten Zweck geht Multi-3080 günstiger, aber Multi-3090 eignet sich für (zB Deep-Learning-Wettbewerbe).

Wer davor kapituliert, einen PC mit 2x 3080 zu bauen (ist schwierig, ich beschäftige mich seit Wochen mit der Erwägung, denn es scheitert leicht am Netzteillärm/preis, dem zu kleinen 3-Slot-Abstand von PCIe 4.0 x16 Slots mit Geschwindigkeit x8 für kuftgekühlte 2,7 - 2,9-Slot-Karten und der vertikalen Aufstellung zweier PCIe-Karten (verbunden mit Riser-Steckern), der kauft aus Frust vielleicht eine 3090, die zwar nicht ganz so schnell ist, aber einfach einzubauen.

Außerdem gibt es natürlich reiche Gamer, die mit der besten [Nicht-Profi-]Karte angeben wollen und dafür jeden halbwegs im Rahmen bleibenden Luxuspreis zahlen.

Also enttäuschen tut die 3090 aus absoluter Sicht nicht, allenfalls beim Preis-Leistungs-Verhältnis (wenn man den Mehrspeicher nicht braucht) und der Effizienz (Geschwindigkeit pro Watt), denn die Karte soll reichlich heizen. Wem es nur auf den VRAM ankommt, der kann ja bald die 3080 TI mit mutmaßlich 20GB zu ca. €1000 - 1200 kaufen.
Posted by Kayar
 - September 20, 2020, 20:05:11
Stimme ich zu.
Das ganze wird eh erst weiter relevant und aussagekräftig, wenn DLSS und RTX weiter ausreifen und von Developern besser eingesetzt werden.
Gleiches damals mit der Rasterisierung.
Abwarten. Es ist jedenfalls ein super Zeitpunkt um endlich aufzurüsten.
Posted by Eudy
 - September 20, 2020, 19:40:16
1. wenn die 3090 so gut sein soll auf 8k, sollte man sie auch auf 8k testen. da dürfte dann der vorteil gegenüber der 3080 signifikant sein.
2. ist die 3090 nicht auch explizit für die bild-/video-bearbeitung gedacht? dann sollte man auch was zum abschneiden und vergleich mit der 3080 in diesem bereich schreiben.
fazit: für mich ein unausgegorener artikel, dessen aussage ich nicht so ganz ernst nehmen kann...
Posted by Redaktion
 - September 20, 2020, 16:40:37
Mit der RTX 3090 hat Nvidia kürzlich eine neue Grafikkarte vorgestellt, die mit 1499 Euro mehr als doppelt so teuer ist, als die ebenfalls angekündigte kleinere RTX 3080. Dabei zeigen jetzt veröffentlichte Benchmarks, dass sich dieser heftige Aufpreis in Spielen kaum in höherer Performance niederschlägt.

https://www.notebookcheck.com/Nvidia-GeForce-RTX-3090-Geleakte-Spiele-Benchmarks-enttaeuschen-im-Vergleich-zur-guenstigeren-RTX-3080.494766.0.html