News:

Willkommen im Notebookcheck.com Forum! Hier können sie über alle unsere Artikel und allgemein über Notebook relevante Dinge disuktieren. Viel Spass!

Main Menu

Intel präsentiert die ersten fünf Arc Alchemist GPUs samt Arc Control Software

Started by Redaktion, March 30, 2022, 17:31:12

Previous topic - Next topic

Redaktion

Intel Arc Alchemist geht endlich an den Start. Intel hat die ersten fünf Grafikchips offiziell vorgestellt. Die beiden günstigsten GPUs sind ab sofort verfügbar, Xe Super Sampling und leistungsstärkere Grafikchips folgen im Sommer.

https://www.notebookcheck.com/Intel-praesentiert-die-ersten-fuenf-Arc-Alchemist-GPUs-samt-Arc-Control-Software.610891.0.html

JKM

Laut der unten eingebetteten Benchmarks zur Arc A370M soll der Grafikchip zahlreiche Spiele in 1.080p-Auflösung mit mittleren bis hohen Details mit flüssigen 60 Bildern pro Sekunde darstellen können. Im Vergleich zu Intels aktuellster iGPU wird die Gaming-Performance im Schnitt beinahe verdoppelt.

Beim unten eingebetteten Benchmarks zur Arc A370M wird ein 28W-1280P-iGPU mit einem 80-95W-Intel-Notebook (45W-12700H & 35-50W-Arc A370M) vergleichen, wo mit intels Deep Link-Technologie die Grafikkarte auch auf die Rest-TDP der CPU zugreifen kann.

Alleine die unten eingebetteten Benchmarks deuten im besten Fall eine 2x-Performance bei 2,85x - 3,4x-fach höherem Stromverbrauch an.

Der Performance-Zuwachs der unten eingebetteten Benchmarks sieht eher nach Sprüngen zwischen der 28W-P- und 45W-H-Serie aus.

Unabhängige Tests

Von Herstellereigenen Benchmarks, vor allem von Intel, muss man besonders aufpassen. Unabhängige Tests werden Klarheit bringen.

Prassel

Quote from: JKM on March 30, 2022, 18:03:24Alleine die unten eingebetteten Benchmarks deuten im besten Fall eine 2x-Performance bei 2,85x - 3,4x-fach höherem Stromverbrauch an.

Der Performance-Zuwachs der unten eingebetteten Benchmarks sieht eher nach Sprüngen zwischen der 28W-P- und 45W-H-Serie aus.

Ja stimmt, aber diesen Trick machen die anderen Hersteller auch... einfach mehr Leistung ziehen lassen, und dann behaupten die Performance hätte sich auf wunderbare Weise erhöht. Das ist besonders bei Notebooks aufgefallen, weil dort die Netzteile kontinuierlich für mehr Wattverbrauch dimensioniert wurden.

Tatsächlich hat man auch immer wieder das Gefühl die Verkleinerung im Nanometer-Prozess ist überbewertet, und hat eigentlich gar nicht soviel Auswirkung wie immer rausposaunt wird.
Und damit es nicht auffällt, wurden gleichzeitig sehr oft, Taktraten, VRAM-Geschwindigkeit, und Verbrauch leicht erhöht.
Das ist doch alles nur noch fadenscheinig und Rosstäuscherei...

JKM

Ja stimmt, aber diesen Trick machen die anderen Hersteller auch... einfach mehr Leistung ziehen lassen, und dann behaupten die Performance hätte sich auf wunderbare Weise erhöht

Meiner Meinung genau diesen Trick nicht,
weil wenn ein CPU-iGPU vs CPU-dGPU-Vergleich gemacht wird, dann haben beide CPUs die selbe TDP sowie ist die TDP der CPU ähnlich der GPU. Also, 25-28W-CPU-iGPU-Only vs (15-)25W-dGPU. Aber keine dGPU, die mit 35-50W schon deutlich größer ist die 28W-iGPU und erst recht keine CPU, die mit 45W-H vs 28W-P einen deutlich größeren Stromverbrauch hat.

Das ist doch alles nur noch fadenscheinig und Rosstäuscherei...

Klar,
üblich sind eher Cherry-Picking mit bestimmten Grafik-Details, wo man mit Erfahrung schon ein ungefähres Bild machen kann. Mit 3 statt üblich eher 1er Verzerrungs-Variablen kann man diesesmal sich eigentlich kein ungefähres Bild machen. Also, über den Speci-Details hinaus. Ehrlich gesagt weiß ich jetzt kaum mehr als vorher, außer das ein übles Gefühl hinterblieben ist.

Nvidias & AMDs aktuelle Generation gehört ja eigentlich schon zum Alten Eisen, an den Intels Grafikkarten offensichtlich durch nichtgezeigte Vergleiche jetzt schon scheitert, aber schon in wenigen Monaten nicht nur durch die Ada Lovelace & RDN3-Architektur sondern auch noch durch die 5nm vs 7nm/8nm-Fertigung beschleunigt wird.

What the f***.
15 Jahre nach Intels erstem Grafikkarten-Versuch a la Larrabee spricht Intel bei der Welt-Release-Präsentation über die ersten Grafikkarten viel mehr über irgendeine Video-Technologie (AV1), als über die Grafikkarten-Performance, wo sich Intel auch nur bei den langsamsten Low-End-Modellen ausschließlich gegen die noch schlechteren & langsamen eigenen Grafik-Units in der CPU mit +50-100% aufgeilt.

Sorry,
wenn Intels Grafikkarten wirklich so schlecht kommen sollte, dann könnte es ziemlich übel mit Intel aussehen. Denn Intels schlechte iGPUs waren bisher für Intel kein Nachteil, weil sie entweder durch die viel besseren CPU-Kerne überstrahlten oder die Konkurrenz selber mit einer veraltete & auf 8-CU kastrierte iGPU konkurrierte, aber in Kürze gegen Rembrandts iGPU offensichtlich in allen Belangen vernichtend geschlagen wird.

Und warum präsentiert nicht Raja Koduri stolz seine erste Grafikkarten-Generation?

Quick Reply

Warning: this topic has not been posted in for at least 120 days.
Unless you're sure you want to reply, please consider starting a new topic.

Name:
Email:
Verification:
Please leave this box empty:

Shortcuts: ALT+S post or ALT+P preview