News:

Willkommen im Notebookcheck.com Forum! Hier können sie über alle unsere Artikel und allgemein über Notebook relevante Dinge disuktieren. Viel Spass!

Main Menu

Gerücht: Nvidia GeForce RTX 4000 startet früher als erwartet, ein Leaker nennt die Specs der GeForce RTX 4090

Started by Redaktion, May 16, 2022, 13:27:02

Previous topic - Next topic

Redaktion

Nvidia GeForce RTX 4000 "Ada Lovelace" startet laut einem meist sehr gut informierten Leaker noch früher als erwartet, sodass Kunden die spannenden Grafikkarten schon in einigen Wochen bestellen können. Das Topmodell soll deutlich leistungsstärker als die RTX 3090 werden.

https://www.notebookcheck.com/Geruecht-Nvidia-GeForce-RTX-4000-startet-frueher-als-erwartet-ein-Leaker-nennt-die-Specs-der-GeForce-RTX-4090.619838.0.html

JKM

Die Frage ist immer,
was eigentlich genau erwartet wurde.
Also, dass die Grafikkarten-Preise früher als erwartet gefallen sind oder entgegen der Erwartung seine Next-Gen noch vor der Intel-Konkurrenz am Markt bringen kann, um Intel noch stärker zu blamieren, oder wegen diversen Erwartungen im Bezug zu AMD. An sich ist die 5nm-Fertigung schon 2 Jahre alt, sodass man jetzt kaum von einer guten Fertigungs-Reife überrascht werden kann.

RobertJasiek

Ich kann nur sagen, was ich erwartet habe bzw. erwarte:

Erwartet hatte ich aus meiner Sicht als Endverbraucher mit dem Recht zu kaufen die Verfügbarkeit von RTX 3000 zu UVPs für alle seit Launch. Vor Launch (also vor Miningboom und Corona) hatte ich realistischerweise allerdings die Unfähigkeit von Herstellern, Distributoren und Händlern erwartet, die absehbare hohe Nachfrage selbst auch nur unter Nicht-Minern vor Mai 2021 zu decken. Übersehen hatte ich die zusätzliche Möglichkeit der Scalper. Da ich mit dem Miningboom nicht gerechnet hatte, hatte ich außerdem die extrem grobe Unverfrorenheit der Hersteller des Direktverkaufs an Miner übersehen. Ähnlich das Scalpen durch die Hersteller selbst. Das Ausmaß der Marktmanipulation aufgrund von Gier der Händler und Distributoren hatte ich unterschätzt, weil ich nicht damit rechnete, dass einige durch ihre maßlose Gier ihren Ruf auf Jahrzehnte verspielen.

Neue Grafikkartengenerationen von Nvidia und AMD etwa alle 2 Jahre sind üblich, also habe ich damit gerechnet. Sollten es diesmal ein paar Monate früher als im Schnitt werden, überrascht mich das leicht, weil es eine Kontrolle von Produktion und Zulieferung bedeutet. Warten wir mal, ab, ob sie es schaffen. Früh erscheinende Grafikkarten erfordern früh erscheinende Ryzen 7000-APUs. Ob AMD das zeitlich hinbekommt oder werden Grafikkartenkäufer dann alte andere Hardware kaufen müssen? Wie ist es mit dem Termin von Intel 13. Generation?

Erwarten tue ich als Endverbraucher selbstverständlich die Verfügbarkeit von RTX 4000 zu UVPs für alle ab Launch. Da es aber noch keine Anzeichen für die Möglichkeit von Vorbestellungen einzelner Karten gibt und die Aufstockung von Produktionskapazitäten überschaubar ist, erwarte ich realistischerweise erneut ein stark zu geringes Angebot für Wochen, wenn nicht Monate. Hersteller und Händler haben i.W. nur gelernt, ihrer Gier zu frönen, nicht aber, den Endverbrauchern ausreichend Ware zur Verfügung zu stellen. Es fehlt der Wille, sich in den Bedarf des Nachfragemarkts reinzudenken. Da Hersteller und Händler nur kurzfristig auf Gewinnmaximierung denken, fehlt ihnen das Bewusstsein, dass eine Befriedigung der Nachfragebedürfnisse auch für sie selbst langfristig gut ist, weil zufriedene Käufer lieber wieder kaufen, statt durch künftige Kaufzurückhaltung abzustrafen.

Wünschen würde ich mir außerdem neue Mobilgrafikkarten zeitgleich zu neuen Desktopgrafikkarten, damit man als Verbraucher die beste Wahl hat.

Erwarten tue ich leider sehr stark steigende Wattverbräuche, während ich mir stark steigende Effizienz wünsche.

Preise? Das Thema ist unsäglich bis widerwärtig. Z.B. sind die aktuellen Marktpreise weiterhin v.A. Ausweis maßloser Gier und haben mit Angebots-/Nachfrageregulierung wenig zu tun. Die Händler könnten viel mehr verdienen, wenn sie ein Vielfaches zu nachfragegerechten Preisen verkauften. Stattdessen versuchen Hersteller, Distributoren und Händler v.A., einem erneut überhohen Preisniveau der nächsten Generation den Weg zu ebnen. Es gibt nur einen tröstlichen Gedanken dabei: in ein paar Jahren werden APUs RTX-3090-Niveau erreichen und Normalos werden dann keine dGPUs mehr brauchen.

JKM

Gier ist der Antrieb des Menschen.
Stell dir vor der Mensch hätte keine Gier und somit NeuGier, dann würde er eher noch in der Höhle vorm Feuer hocken, und sich blos so Neandertaler nennen.

Ich denke, dass sich AMD sogar auf eine mögliche Neue Mining-Welle vorbereitet hat, die dann mit der höheren Effizienz aus der 5nm-Fertigung ausgelöst werden kann. Wie damals zur Einführung der 14nm-Grafikkarten oder 7nm-Grafikkarten. Denn die neue Refresh-6000-Serie erscheint mit so kurz vor der 7000er-Serie verdammt komisch & unüblich. Um nur die Preise etwas zu steigern, braucht AMD diese Serie nicht, weil der Sprung mit der 7000-Serie sowieso sehr groß sein wird. Als Ergänzung dazu den Nav 33 (RDNA3), der ebenfalls in 6nm schneller sein soll, als der RX 6900XT. Damit hätte AMD ein ganzes Portfolio für Gamers, falls die 5nm-Grafikkarten wieder von einer Mining-Welle aufgesaugt werden. Generell habe ich das Gefühl, dass AMD den Fokus mehr Richtung Grafikkartne legt, weil diese offensichtlich schon höhere Margen bringen. Denn ein Navi 23 mit 240mm² ist auch nicht viel größer als ein Rembrandt mit 210mm², aber dieser kann mit 400-600$ deutlich teurer verkauft werden, als selbst ein RyZen 7-APU.

eeeez

Effizienzsteigerung RTX2000 -> RTX3000: im einstelligen % Bereich.
Super weit über 350 Watt wird RTX 4090 nicht gehen, hier ist eine deutliche Effizienzsteigerung zu erwarten. Ich schätze, das z. B. eine RTX 4090 ca. maximal 60% schneller werden wird, wie eine RTX 3090, bei möglicherweise aber auch höherer TDP dann: 450 Watt/350 Watt -> 29% schneller + 30% Effizienzsteigerung durch Fertigung bei TSMC.

JKM

Ansich wäre eine größere Effizienz-Steigerung von Nvidia zu erwarten, weil der Sprung von 8N-Samsung bzw. 10nm+ auf 5nm eher ein Sprung von 2 als 1 Fertigungs-Sprung entspricht, als AMDs von 7nm auf 5nm.

AMDs Sprung mit der RDNA2-Architektur war stark und groß, aber ob damit RDNA2 auf Ampere aufschließen konnte, bezweifel ich etwas. Denn dieser ebenhatte den 7N-TSMC vs 10nm+ bzw. 8N-Samsung-Vorsprung, den ich etwas schwer einschätzen kann.

High-End-Grafikkarten sind nett, aber für ein Unternehmen nicht alles. Die Frage ist auch, wie viele 5nm-Kapazitäten Nvidia dann bekommt. Also, wann die Low-End bis Mainstream-GPUs damit produziert werden. Und 5nm-Mainstream-GPU entsprechend 7nm-Performance-GPUs. Die 5nm-Kapazitäten entscheiden dann auch abseits einer nächsten Mining-Welle von den Grafikkarten-Preisen. Bei mäßigeren Kapazitäten wird die Next-Gen Preislich Anfangs des Next-Gen-Fertigungs-Zyklus eher bzw. in Zeiten ohne Preiskampf (siehe Vergangenheit) oben auf der Old-Gen draufgesetzt/erweitert.

Prinzipell wird AMD mit RDNA3 und deren Chiplet-Technologie einen Konkurrenz-Kampf mit anderen Prioritäten (Technolgie, Fertigung, ...) gehen, wo bei "5nm"-Grafikkarten ein Teil bzw der I/O-Chiplet in 6N-Fertigung bleibt. Das bringt dann auch diverse Nachteile, so wie damals beim z.B. RyZen 3000 @ Games. Aber diese Nachteile konnten in der Next-Gen gelöst werden, sowie die Vorteile dann immer mehr zu tragen kommen und ausgebaut werden konnten. Denn mit Chiplet erspart sich AMD keine Gesamt-Fertigungs-Kapazitäten, weil 6nm-TSMC für I/O-Chiplet auch für AMD viel zu knapp ist. Vorallem, die Frage ob der I/O-Chiplet der CPU genutzt wird, welche so nebenbei auch eine iGPU hat.

Vorallem wird es von Interesse sein, ob mit den Chiplets auch die 1-Chiplets-Lösungen (1x 5nm-CCD + 1x 6nm-IOD) damit z.b. im Performance-Segment bedient werden könne, womit AMD die Next-Gen-Grafikkarten mit neuer Fertigung schneller und parallel zur Enthusiast & High-End- am Markt bringt. Wobei die ganzen Vorteile einer Technologie seltens bei der Einführung zum Tragen kommt, sondern später, wenn sich das ganze drauf eingespielt wurden.

Erst recht,
wenn die Chiplets von CPUs mit den Chiplet der GPUs kombiniert werden bzw. werden können.

Quick Reply

Warning: this topic has not been posted in for at least 120 days.
Unless you're sure you want to reply, please consider starting a new topic.

Name:
Email:
Verification:
Please leave this box empty:

Shortcuts: ALT+S post or ALT+P preview