News:

Willkommen im Notebookcheck.com Forum! Hier können sie über alle unsere Artikel und allgemein über Notebook relevante Dinge disuktieren. Viel Spass!

Main Menu

Dual-GPU mit 48 GB VRAM: Intel Arc B580 soll als mächtige AIB-Version erscheinen

Started by Redaktion, May 13, 2025, 11:37:53

Previous topic - Next topic

Redaktion

Während Kunden bei Nvidia zur teuren GeForce RTX 5090 greifen müssen, um zumindest 32 GB Grafikspeicher zu erhalten, soll Intel die Arc B580 schon bald mit 24 GB VRAM neu auflegen, ein Board-Partner nutzt diese Gelegenheit angeblich für ein Modell mit zwei GPUs und 48 GB Grafikspeicher.

https://www.notebookcheck.com/Dual-GPU-mit-48-GB-VRAM-Intel-Arc-B580-soll-als-maechtige-AIB-Version-erscheinen.1015039.0.html

Hjalmar

Hmmm... Klingt schon erstmal etwas weit hergeholt, wenn nichtmal BMG31 final bestätigt ist.
Andererseits könnte das natürlich auch ein Versuchsballon sein. Gerade "Nicht-Marktführer" (bei GPUs hier also AMD und Intel) müssen über den Preis kommen. Und da bietet sich wie im CPU-Segment die Chiplets bei AMD bzw. Tiles bei Intel (wenngleich da erhebliche Unterschiede bestehen), auch bei GPUs in irgendeiner Form ein Herunterbrechen in kleinere Chips an.

Nvidia kann es sich durchaus leisten sowas zunächst "im Hinterzimmer" auszuprobieren und erst auf den Markt zu werfen, wenn sie es wollen/der Druck zu groß wird/die Technologie vollständig ausgereift ist.
Solange können sie noch mit Monolithen arbeiten - aufgrund der höheren Preise, die sie aufrufen können, machen ihnen auch die höheren Kosten weniger was aus.

AMD hat ja gerüchteweise schon für RDNA4 daran gebastelt. das ist aber wohl nix geworden, sodass es eben nur "Midrange" Performance im Max. gibt (jedenfalls keine 5080/5090 Performance).
Und: Im Segment der reinen Beschleuniger mit CDNA haben sie (AMD) bereits echte Multichip GPUs (d.h. auch mehrere GCDs&MCDs und nicht "nur" 1 GCD + X MCDs wie bei RDNA3)
Also sofern das technologisch irgendwie tatsächlich auch möglich ist im Gaming-Bereich, wird das auch auf jeden Fall kommen in der Zukunft.
Intels Dual GPU könnte daher eine Art Testballon sein, um sich erstmal in diesem Segment vorzutasten, bis man versucht das ebenfalls im Gaming-Segment zu bringen. Aber das wird sicherlich noch einige Jahre dauern (mind. 1-2).

JKM

Während Kunden bei Nvidia zur teuren GeForce RTX 5090 greifen müssen, um zumindest 32 GB Grafikspeicher zu erhalten, soll Intel die Arc B580 schon bald mit 24 GB VRAM neu auflegen, ...

Die <1% Marktanteile zeigen ja, dass das Intel-GPUs keinem Interessiert.
Obwohl die Nvidia-Preise aufgrund des KI-Server-Hypse völlig übertrieben viel zu hoch sind.
Intelgrafikkarten sind ein reines Verlustgeschäft.


Und: Im Segment der reinen Beschleuniger mit CDNA haben sie (AMD) bereits echte Multichip GPUs (d.h. auch mehrere GCDs&MCDs und nicht "nur" 1 GCD + X MCDs wie bei RDNA3)

RDNA3 war schon ein Multi-Chip.
Die Abkehr davon war nicht technologisch, sondern wirtschaftlich, weil die Kapaztitäten durch die KI-Server-Übernachfrage begrenzt ist.

Hjalmar

Quote from: JKM on May 13, 2025, 17:38:13Während Kunden bei Nvidia zur teuren GeForce RTX 5090 greifen müssen, um zumindest 32 GB Grafikspeicher zu erhalten, soll Intel die Arc B580 schon bald mit 24 GB VRAM neu auflegen, ...

Die <1% Marktanteile zeigen ja, dass das Intel-GPUs keinem Interessiert.
Obwohl die Nvidia-Preise aufgrund des KI-Server-Hypse völlig übertrieben viel zu hoch sind.
Intelgrafikkarten sind ein reines Verlustgeschäft.


Und: Im Segment der reinen Beschleuniger mit CDNA haben sie (AMD) bereits echte Multichip GPUs (d.h. auch mehrere GCDs&MCDs und nicht "nur" 1 GCD + X MCDs wie bei RDNA3)

RDNA3 war schon ein Multi-Chip.
Die Abkehr davon war nicht technologisch, sondern wirtschaftlich, weil die Kapaztitäten durch die KI-Server-Übernachfrage begrenzt ist.
1. Wenn wir pingelig sein wollen, hätte ich auch sowas wie "Multi-GCD GPUs" schreiben können, aber es geht aus meinem Text klar hervor, dass ich bzgl. RDNA3 meine, dass es sich eben mitnichten um ein Konstrukt aus mehreren GCDs handelt. Mehrere MCDs an einen GCD "anzuflanschen" ist eine Sache. Eine ganz andere zwei GCDs miteinander kommunizieren zu lassen. (Denn genau da liegt der Hund begraben, da man dort die Probleme bzgl. der Kommunikation untereinander lösen muss, siehe auch die Microstutter bei früheren Dual-GPU Systemen, sowie auch die Speicherzuweisung. Das ist gerade für Gaming GPUs eine große Sache. Als reine Beschleuniger-Karte für Berechnungen ohne Grafik-Pipeline eher irrelevant.)

2. Stimmt die Aussage bzgl. der Abkehr so nicht.
   A) Gab es nie einen echten Engpass in dem bei RDNA4 benutzten N4P (ein 5nm Derivat) Prozess. (auch u.a. bei 3dcenter etc. gerne nachzulesen. Es gab immer wieder schnelle Mutmaßungen seitens einiger amerikan./asiat. Medien, die sich aber ebenso schnell wieder entkräftet haben.)
   B) Hätte eine Multichip GPU gerade bei einem Engpass dieses Problem gelöst: Statt eines großen Chips mit geringem Yield hätte man stattdessen ein  Konstrukt aus mehreren kleinen Chips mit entsprechend höherem Yield erhalten können. Insbesondere hätte man bei den MCDs dann größere/ältere Verfahren nutzen können (wie auch bei RDNA3 passiert: GCD: 5nm, MCD: 6nm (=7nm Derivat)), was im Übrigen auch deswegen gerne gemacht wird/wurde, da Speicherchips i.A. weniger gut skalieren (mit neuen Fertigungsverfahren), als "Rechen-Chips" (was nicht heißt, dass sie gar nicht profitieren, aber der Unterschied dort am Ende immer geringer ausfällt).

JKM

Eine ganz andere zwei GCDs miteinander kommunizieren zu lassen.

Wer sagt, dass AMD das nicht konnte?
Grafikkarten haben viel geringere Latenzen.
Und bei den CPUs ist die Kommunikation zwischen den Chiplets eher komplexer,
wo es auf einem CCD mit zwei CCX schon ein Gaming-Abfall wegen der Kommunikation zwischen den zwei CCXs gab.
Dies hat AMD mit Zen3 gelöst,
aber die Kommuniktation zwischen den zwei CCDs hat AMD erst mit Zen4 "gelöst", was nicht so auffiel, weil die 2-Chipl-Gaming-CPUs nie von großen interesse waren. Jetzt sind die wenigstens beim Gaming etwas schneller als zu 5000-Zeiten, wo sie bei Gaming etwas langsamer waren.

2. Stimmt die Aussage bzgl. der Abkehr so nicht.
   A) Gab es nie einen echten Engpass in dem bei RDNA4 benutzten N4P (ein 5nm Derivat) Prozess.


Für Chiplet-APUs oder Chiplet-GPUs oder Chiplet-CPUs braucht man auch Fabriken, die die Chips mit Qualität zusammenbringen können, ohne dass sie auseinander fallen. Wäre das alles so easy, dann hätte AMD schon damals wie heute zum 5800X3D auch günstigere Versionen in größeren Massen produziert. Oder eine HX3D-Versionen rausgebraucht. Die Kapazitäten waren nicht da, weil es nicht so einfach ist.

Natürlich ist N4P völlig ausgebucht, sonst wäre der 5N-Prozess noch so extrem teuer, wie er jetzt ist. Mit den KI-Hype werden die alten ab 5N-Fertigungen nicht mehr günstiger, sondern teurer. Also, ab jener Fertigung, womit Nvidia & AMD seine KI-Karten (und AMD seine primären Massen-APUs) produziert.

Nvidia KI-Hype hat 1,5 Jahre vor AMDs KI-Akzeptanz begonnen. Nvidia hatte bevor AMDs KI-Hype richtig losging, das Problem nicht genug N5, N4 und N3-Kapazitäten sowie Speicherchips zu bekommen. In weniger als 2 Jahrne von 10 auf 40 Mrd. $ Umsatz zu wachsen geht nicht so easy. Da muss alles neues bestellt & genommen werden, als mit Fabriksneubau hinzukommt. Genau in dieser Zeit hat auch Intel immer stärker anspruch auf TSMC-Kapazitäten genommen.

WIe schiwerig es ist Kapazitäten für Multichips hochzuziehen sieht man auch perfekt bei Intels-Lunar-Lake. Intel hat bis Ende 2025 nur 100 Mio. AI-CPUs angekündigt. Also, Meteor-Lake und Lunar-Lakes. In einer Zeit, wo Intel so 400 Mio. CPUs liefert. Und weil Intel zu Grenzen stoßen, wollen sie wieder einen Schritt zurück machen.

B) Hätte eine Multichip GPU gerade bei einem Engpass dieses Problem gelöst:

Wäre alles so easy hatte AMD mit Navi 41 oder 42 einen Multi_Chiplet-Navi basteln können und diesem 1000 $ anbieten können.

Aber ich bezweifel, dass es keinen 5N-Engpass gibt.
Denn dann könnten schon viel mehr Firmen bei vielen NOtebooks den 240mm²-4N-Strix-Point nutzen, statt nur den 180mm²-5N-Hawk Point (oder gar 180mm²-4N-Kracken Point)

Wie schon erwähnt, werden bei Intel garnicht so viel Lunar-Lakes und Meteor-Lakes prodziert. Vielleicht gerade mal im 4Q-2025 mehr Meteor-Lakes & Lunar-Lakes als Raptor-Lakes. Und gegen Raptor-Lakes-Notebook-CPUs sind AMDs Strix-Point und Kracken-Point performance- & effizienztechnisch völlig überlegen.

Deshalb kann AMD aktuell relativ gesehen nur recht langsam & stetig wachsen.
z.b im 1Q-2025, wo AMDs Umsatz-Rückgang gegenüber dem Vorquartal 3%, während Intel Rückgang ganze 11% war. Also 8% Differenz.
Im 2Q-2025 könnte AMD vielleicht +2-3% im Umsatz wachsen, während Intel um einen so 2-3% Rückgang erleben könnte, wenn Intel wie im 1Q-2025 (also best Case) den oberen Prognose-Rahmen erreicht.
Und so geht es schon über viele Quartale. Seit Zen5-3D wächst AMD in allen CPU-Märkten. Also auch in HX und HX3D-Märkten, was man besonders in Steam gut sieht, dass AMD vielleicht schon im nächsten Quartal die 40% Marktanteils-Grenze übertrifft.

Fertigungskapazitäten haben aktuell enormen Einfluss, was sich wieder beim Pantherlake zeigen wird. Vor 20-10 Jahren hatte Intel eine Lauffähige CPU schon zur CES in Januar gezeigt, die Massenproduktion in April hochgefahren und Ende des Jahren am Markt gebracht. So 6 Monate nach den Marktstarkt waren schon 30-40% aller verkauften CPUs die Next-Gen CPU. Das ist aktuell überhaupt nicht der fall, weil Intel dazu nicht die Fabriken baut, die sie für einen schnellen Ramp wie in alten Zeiten bräuchte.

AMD wird offensichtlich keinen Strix-Point-Nachfolger mittels 3nm machen, sondern eher einen Kracken-Point-Nachfolger, weil ganz 2025 und fast ganz 2026 die 3nm-Kapazitäten von AMD für KI-Server (aktuelle 3nm-Zen5C und ab nächstne Monat die 3nm-CDNA4) genutzt wird, deren CPUs und KI-Karten hochkomplexe Multi-Chips sind. Logisch, dass AMD Gaming-Karten vereinfachte, sowie keine Multi-Chip-Flagschiff rausbrachte.
I

Quick Reply

Name:
Email:
Verification:
Please leave this box empty:

Shortcuts: ALT+S post or ALT+P preview