News:

Willkommen im Notebookcheck.com Forum! Hier können sie über alle unsere Artikel und allgemein über Notebook relevante Dinge disuktieren. Viel Spass!

Main Menu

AMD Radeon RX 7800 XT Desktop-Grafikkarte im Test: GeForce RTX 4070 Leistung für weniger Geld

Started by Redaktion, September 16, 2023, 11:14:35

Previous topic - Next topic

Redaktion

Mit der AMD Radeon RX 7800 XT weitet AMD sein Portfolio der RDNA-3-Generation weiter aus. Mit der neuen Mittelkasse-GPU profitieren jetzt auch die Gamer von der aktuellen RDNA-3-Architektur, die nicht gewillt sind extrem tief in das Portemonnaie zu greifen. Inwiefern das gelungen ist und wo sich die AMD Radeon RX 7800 XT gegenüber der Konkurrenz von Nvidia einsortiert, erfahren Sie in diesem Review mit zahlreichen Benchmarks.

https://www.notebookcheck.com/AMD-Radeon-RX-7800-XT-Desktop-Grafikkarte-im-Test-GeForce-RTX-4070-Leistung-fuer-weniger-Geld.749046.0.html

JKM

GeForce RTX 4070 Leistung für weniger Geld

Wobei AMD immer schon die neue Grafikkarte XY-Leistung für (etwas) weniger Geld angesetzt hat.

Interessant an dieser Karte ist, dass AMD mit der ersten Massen-Grafikkarte mit neuster 4nm-Fertigung erstmals mit dieser Generation (mit Preisleistung) gegen die Konkurrenz (Nvidia & Intel) in die Offensive gehen kann, nachdem AMD vor 2-3 Monaten auch CPU-Seitig die Massen-CPU (Phönix) mit neuter 4nm-Fertigung am Markt brachte.

Nach den 2 Jahre Corona Jahren und übernachfrage an Notebook-CPUs und der 1 jährigen Post-Corona-Crash sowie den dazwischenliegenden Crypto-Hype ist nach 3 Jahren erstmals wieder eine freier Markt ohne spezielle Markteinflüsse. Und damals war AMD mit der Vega-Architektur im Grafikkarten Markt gegen Nvidia relevant hinterher.

Und gleich gut wie XY und billiger sollte oder könnte auch 50-55% Marktnanteil bedeuten. Gut Möglich das AMD das bzw. 40-45% möglich ist. Nicht unlogisch, denn vor 3 Jahren war die Vega-Architektur deutlich hinterher, sowie noch die ganze Software-Entwicklung. Und das zeigt sich schon im Konsolen-Markt (Sony, Mircosoft), Low-Cost-Konsolen-Markt (Nintendo) und den Handheld-Markt, in den AMD entweder dominiert oder massiv an Konkurrenz aufgebaut hat. Nur das nur mit der Monolitischen Notebook-APU.

Und interessant wird es, wenn AMD dann die CHiplet-APU bzw. die IOD-Chiplet mit großem iGPU und HBM-Anschluss am Markt bringt und Nvidias mobile Grafikkerten gehörig unter Druck bringt. Denn mit einer HBM-Chiplet-APU würde die hocheffizienten HBM die stromfressenden VRAM und den stromfressenden Arbeitspeicher ersetzen.

Klar, Nvidia hat im AI-Markt aktuell einen Mega Erfolg, aber damit wird der Gaming-Markt für Nvidia auch immer unbedeutender, sodass Nvidia irgendwann entgültig vom Gaming-Markt wegwandern. Und das sieht man meiner Meinung auch schon im Low-Cost-Gaming-Markt, wo der 5nm-Phönix-AMD-Handheld-Konkurrent als Switch 2 nur mit alter 8nm-Samsung-Fertigung daherkommt und Nvidia stattdessen den HPC/AI-CPU a la Grace mit neuster Fertigung am Markt bringt.

Daher ist für Nvidia der 7800 XT ziemlich gefährlich, der gleichgut wie der deutlich Die-Größere 4070 zu günstigeren Produktions-Kosten und Preisen ist. Klar, wird AMD mit 7800XT auch nicht voll in die Offensive gehen, aber auch nur weil AMD sich gerade primär ebenfalls auf die viel luktrativen AI-GPU-Karten konzentriert. Ich glaube auch auf Kosten der FSR 3.0-Entwicklung, aber aufgrund der 5nm-Kapazitäten und der späten 7800XT konnte AMD FSR 3.0 auch später fertig werden.

Auf alle Fälle werden die nächsten Monate und Quartale interessant und turbolent.
Klar, Nvidia steigt mit Grace defekto auch in den CPU-Markt, während Intel mit Meteor-Lake auch in den Chiplet-Markt einsteigt. Hingegen wird AMD zuerst in AI-GPGPU-Markt nach 3 Jahren doch erstmals und relevant die Chiplet-APU nutzen und einsteigen. Obwohl es viel um GPU-Architektur geht, geht es eher wenig um die eigentliche Grafikkarten.

RobertJasiek

"7800 XT ziemlich gefährlich, der gleichgut wie der deutlich Die-Größere 4070"

Man kann nicht allgemein "gleich gut" sagen, sondern muss nach Anwendungen unterscheiden:

- maschinelles Lernen: Nvidia ist sehr viel besser
- manche professionelle Anwendungen: AMD ist sehr viel besser als Geforce, weil Nvidia diese kastriert, um überteuerte Workstation-Prosumer-Karten zu verkaufen
- 3D-Spiel und einige Medien-editier-Anwendungen: gleich gut, wenn Hardwarecodecs keine entscheidende Rolle spielen

JKM

Man kann nicht allgemein "gleich gut" sagen, sondern muss nach Anwendungen unterscheiden:

Ich dachte, dass nur die Gaming-Anwendung gemeint war und habe dabei nur diese in Betracht gezogen.

In erster Linie, weil ich AMDs Profi-GPGPU- und AI/HPC-GPGPU-Offensive noch erwarte.
Die AI/HPC-GPGPU-Offensive über die CDNA3-APU und CDNA3-GPU-Karte im 4Q-2023, sowie im Schlepptau der FSR 3.0, weshalb die Next-Gen-Threadripper auch erst im 4Q-2023 kommen werden.

In Professionellen Anwendungen und HPC hatte AMD einen riesen Rückstand aufzuholen, aber seit 1-2 Jahren den Fokus in der Treiber-Entwicklung genau in diese Richtung. Und in den letzten 2-3 Jahren hat AMD mit 4-6 Mrd. $ Umsatz auch viel größeres Treiber Team als 5+ Jahre zuvor, als AMD nur <2 Mrd. $ Umsatz hatte. Deshalb würde ich AMDs Profi-GPU und AI-GPU und HPC-GPU-Performance ersthaft betrachten, wenn FSR 3.0 und die AI-Software zum MI300A fertig und verfügbar werden.

Ansich glaub eich, dass RDNA3 auch einen Entwicklungs-Fokus im Profi-Markt hatte, weil RDNA3 gegenüber RDNA2 trotz Shader-Verdopplung bzw. Dual-Issue nur eine bescheidene Gaming-Steigerung hat. Aber wirklich sehen wir es erst, wenn die obengenannte Treiber in den nächsten Monaten am Markt kommen.

Der Grafikkarten-Markt wird IMO immer mehr zum Nebenschauplatz.

RobertJasiek

Denkst du, dass AMD's Grafikkarten lizensiert CUDA bekommen? Andernfalls sehe ich nicht, wie Nvidia bei Anwendungen aufgeholt werden soll.

JKM

Ich glaube die Diskussion gab es schon und das wird nicht kommen.

Dazu hat AMD die HIP entwickelt, die CUDA auf AMD-ROCm übersetzt, oder so.

Andernfalls sehe ich nicht, wie Nvidia bei Anwendungen aufgeholt werden soll.

AMD könnte schon aufholen, wie AMD jetzt viel mehr Treiber-Entwicklungskraft als Nvidia zwischen 2008-2015 hatte, wo sie AI oder Autonomes Autofahren & Co sich Monopol und den Markt entwickelten.

Bei Nvidia sehe ich eher die Geldgier und die extreme Nvidia-Ahängigkeit als Problem für viele Unternehmen. Denn man konnte in den letzten 10 Jahren schon bemerken, dass nach dem Anfangs-Hype viele nicht mehr sooo über Nvidia erfreut waren und die enorme Nvidia-Abhängigkeit spürten. Bei Nvidia hat das fast schon 15 Jahre ohne Konsequenten funktioniert, wo ich glaube, dass die nicht soooo ein Kundengespür habenj, wenn sich der Markt mal gegen Nvidia drehen sollte. Nvidia war in den letzten Jahren mit diversen Hypes a la Cropto & Co gesegt, sodass diese Problematiken kaum aufvielen, bevor der nächste Hype kam.

AMD hat halt den Vorteil einer etablierten CPU-Architektur im PC-Markt, was Nvidia nicht hat. Somit können sie über die APU-Schiene profitieren. Und mit der Chiplet-Technologie haben sie die Grenze massiv nach oben geschraubt, was Nvidia ein großes Problem werden kann bzw. Nvidia mit Grace versucht dagegenzusteuern.

Nvidia profitierte über die 2010-2020 massiv über die schlechte Intel-iGPU, weshalb gerne eine Nvidia-Grafikkarte verbaut wurde. Quaso, als Intel eine besser CPU als AMD hatte und Nvidia eine besssere GPU als AMD hatte, konnte sich Intel und Nvidia den PC-Markt in CPU (Intel) und GPU (Nvidia) aufteilen. Und jetzt, wo Intel unter Druck kommt, musss Intel ändert sich alles. U.a. muss Intel jetzt auch immer mehr gegen Nvidia bzw. Nvidia-Märkte (Grafikkarten, AI-Markt, Autonome Autos) konkurrieren, sodass auch im Intel+AMD-Verbund gegen CUDA agieren könnte.

Dazu kommen im AI-Markt noch viele andere tatkräftige AI-Entwickler, die nicht auf CUDA laufen werden. CUDA bekommt von mehreren Seiten ein Druck. Nicht nur von AMD, die gleich von Anfang an sehr offen agieren.

Quick Reply

Warning: this topic has not been posted in for at least 120 days.
Unless you're sure you want to reply, please consider starting a new topic.

Name:
Email:
Verification:
Please leave this box empty:

Shortcuts: ALT+S post or ALT+P preview