News:

Willkommen im Notebookcheck.com Forum! Hier können sie über alle unsere Artikel und allgemein über Notebook relevante Dinge disuktieren. Viel Spass!

Main Menu

Die Intel Arc A770M GPU bietet 13,5 TFLOPs und 21,7 Milliarden Transistoren dank 6 nm-Fertigung bei TSMC

Started by Redaktion, March 31, 2022, 14:47:23

Previous topic - Next topic

Redaktion

Mit der Arc A770M wird Intel im Frühsommer eine High-End-GPU für Notebooks auf den Markt bringen. Nachdem der Konzern bei der Präsentation des Grafikchips nicht allzu viele Details zur Technik verraten hat gibt es nun ein paar weitere, spannende Details zur Arc A770M.

https://www.notebookcheck.com/Die-Intel-Arc-A770M-GPU-bietet-13-5-TFLOPs-und-21-7-Milliarden-Transistoren-dank-6-nm-Fertigung-bei-TSMC.611029.0.html

JKM

Dachte ich mir schon,
dass dieser höchstens in 6nm kommt. Und selbst das sieht erschreckend schlecht aus, weil Nvidia den 393mm²-Konkurrenten nicht nur 18 Monate vor Intels A770M brachte, sondern mit 15,3 TFlops @ 80-115W vs 13,4 TFlops @ 120-150W auch noch deutlich effiizienter ist. Wenn das nicht schlimm genug ist, nutzte Nvidia mit 8nm-Samsung auch noch eine deutlich schlechtere Fertigung.

MeinGott

Wie sich alle immer wegen +/-20W heutzutage aufregen und dann in ihren Porsche SUV steigen und 20l auf 100km verbrauchen.  :p

JKM

Ich kritisiere nicht den Verbrauch des 120W+ SUVs an sich, sondern die eher mäßige Performance eines ziemlich schluckenden Intel SUVs mit neuster Fertigung.

Eine womögliche +50-100% höhre Strom-Ineffizienz der Intel-GPU-Architektur gegenüber die Konkurrenz bringt Intel langfristig von iGPU bis High-End bzw. Enthusiast bzw. von Smart bis SUV bzw. Hyper-Car erhebliche Probleme.

Man sollte nicht vergessen,
dass Intel mit ihren langsameren & ineffizienteren iGPU in der Notebook-CPU noch erhebliche Markt-Nachteile bekommt, die Intel mit Ice-Lake & Tiger-Lake wegen AMDs Vega8-Stillstand @ 7nm noch nicht hatte.

Zur Strom-Ineffizienz deutet sich noch ein Die-Flächen-Einheiten-Ineffizienz an, die Intels Grafikkarten noch teurer oder unrentabler als die Konkurrenz machen. Klar, bei den Preisen aktuell wäre das noch etwas irrelevant, aber in Zeiten von Limitierenden neusten Fertigungen (aktuell 6nm & 4nm) schränkt das gleich die eigene Ausbeute so ziemlich ein.

Also,
eine Strom-Ineffizienze Grafikkarte kann man dann nicht mehr so teuer verkäuft werden, die wegen der Die-Flächen-Ineffizienz dann auch noch nicht unerheblich mehr kostet.

Wird reden um einen generellen Markteinstieg von Intel und nicht nur um eine Generation, die vielleicht mal nicht so gelungen ist bzw. diesesmal nicht so einen großen Schritt nach vorne machte.

Es ist nunmal Fakt, dass die Grafik-Unit eine immer wichtigere Komponente im PC-Markt wird.

IndiumGalliumNitride

Ich glaube, dass während der Pandemie es recht schwer ist. Eventuell wollte Intel ihre GPUs sogar in 5nm bei TSMC aber es war nicht möglich bzw. zu teuer als Neukunde überhaupt wo anders fertigen zu lassen.

In meiner Jugendzeit war es mir relativ egal wie viel Watt eine GPU zieht, solange ich mir als Schüler die GPU leisten konnte. Performance/Money war mir wichtiger als Performance/Watt. Auch am Desktop ist noch immer die maximale Performance pro Core eines der wichtigsten Parameter. Zumindest für Gamer und für Leute die Simulationen machen, wo nicht alles schön linearisiert werden kann wie z.B. in der Strömungslehre.

Es stimm natürlich, bei Notebooks ist eine schlechte Performance/Watt nicht gerade ideal. Vor allem hier möchten viele ab den unteren Wattbereichen hohe Performance, auch wenn der SoC im Gegenzug die letzten 20% was gerade möglich ist nicht mehr rausholt. Apple hat dies mit Software/Hardware aus einem Haus sehr gut gemacht und mit 5nm auch zu einem Teil erkauft.

Ich bin gespannt. Für uns Konsumenten wird es gut sein, wenn 3 Hersteller nun im PC-Bereich bei den GPUs konkurrieren. Vor allem jetzt zur Pandemie ist mir auch eine GPU von Intel in 6nm lieber, solange die Grafikkarte günstig ist.

Derzeit sieht man auch von den Ryzen 6000er wenig und fasst keine Hersteller haben so wenig im Produktportfolio (auch schon bei den 5000er), da scheinbar nur Intel aus dem eigenen Hause die große Nachfrage decken kann, auch wenn die 6000er wesentlich effizienter wären und mir beim Notebook lieber wären. (haben auch mittlerweile USB 4.0)

Ich glaube aber nicht dass Intel schläft. Die haben über Jahre ihren GPU-Bereich aufgestockt und versuchen sich für die Zukunft zu rüsten. Vor allem der Bereich Künstliche Intelligenz ist noch schwer abschätzbar. Zumindest sieht man die Entwicklung, dass auch Intel hier für jeweilige Arten von Algorithmen Einheiten in der GPU hat, gewisse Dinge mit Befehlssätzen auf der CPU laufen können und für andere Algorithmen spezielle KI-Prozessoren besser sind.

Ab 2023 dürfte Intel auch ihre Meteor Lake auf den Markt bringen. Für den GPU-Teil hat sich zumindest Intel auch neben Apple bei TSMC die 3nm-Fertigung gesichert. Die EUs dürften auch stark ansteigen.

Ich freue mich. AMD und NVIDIA werden hoffentlich auch ähnlich wie Apple bei 5nm von TSMC einiges rausholen können. vor allem der Schritt von 8nm von Samsung auf 5nm dürfte viel Potential neben einem neuen Architekturdesign bedeuten.

Fazit: Konkurrenz ist immer gut, das freut den Kunden und ich bin froh, dass Intel "sogar" ihre GPUs so skalieren konnte, dass wir nicht darüber diskutieren ob das Topmodell eher die Performance von einer 3050er oder doch eine 3060er erreicht. Mit XeSS geht der Weg in eine gute Richtung, Intel hat scheinbar die Arbeit gemacht und scheinbar sind sie durchaus vorne dabei im KI-Bereich.

Das größte Problem bei Intel sind sicher eher die Treiber bei den Games als ein Verbrauch von +-20 Watt. ;-)



JKM

Ich glaube, dass während der Pandemie es recht schwer ist. Eventuell wollte Intel ihre GPUs sogar in 5nm bei TSMC

Intel profitierte von der Pandemie. Man könnte mit den 3nm-TSMC-Probleme argumentieren, aber Die-Größen und Shader-Zahlen passen analog der Konkurrenz sehr gut zur 6nm-Fertigung.

Entweder die Dies & Treiber sind noch nicht optimiert, oder Intel hat einen relevanten Strom-&-Die-Flächen-Effizienz-Rückstand.

In meiner Jugendzeit war es mir relativ egal wie viel Watt eine GPU zieht, solange ich mir als Schüler die GPU leisten konnte. Performance/Money war mir wichtiger als Performance/Watt.

Klar, es gab diese Zeit, bis die Physikalischen Grenzen (Stromverbrauch) einen Strich durch die Performance-Grenze machten. Nur zu einem gewissen Grad kann man einen Rückstand kompensieren. Intel ist ja nicht im Grafikkarten-Markt etabliert und weil das die DG2-Serie ist, hat Intel schon die 1. Serie (DG1) still & heimlich übersprungen.



Derzeit sieht man auch von den Ryzen 6000er wenig und fasst keine Hersteller haben so wenig im Produktportfolio (auch schon bei den 5000er)

Das Angebot wächst stetig, wo Rembrandt 200 Design-Wins (+50) und Cezanne/Lucienne schon 150 Design-Win (+50 Stück) erreichte. AMD kämpft genauso wie Intels Grafikkarten, dass AMD nur begrenzte Kapazitäten bei 5nm und 7nm bekommt.

Ich glaube aber nicht dass Intel schläft. Die haben über Jahre ihren GPU-Bereich aufgestockt und versuchen sich für die Zukunft zu rüsten./b]

Nur weil eine Firma nicht schläft, heißt es nicht, dass sie automatisch gleich erfolgreich werden. Siehe AMD/ATI. Mit RDNA2 hat AMD nach Jahren einer Durststrecke wieder den Anschluss gefunden. Jetzt ist generell ein ungünstiger Zeitpunkt keinen Anschluss zu haben.

Ab 2023 dürfte Intel auch ihre Meteor Lake auf den Markt bringen. Für den GPU-Teil hat sich zumindest Intel auch neben Apple bei TSMC die 3nm-Fertigung gesichert. Die EUs dürften auch stark ansteigen.

Blöd, wenn die 3nm-Fertigung nicht so Rund läuft und Apple bei der Next-Gen iPhone nochmal auf 4nm statt auf 3nm zu setzen. Und EUs verlieren an Bedeutung, wenn die Strom-Effizienz oder IPC eines EUs massiv im Rückstand ist.

Fazit: Konkurrenz ist immer gut, das freut den Kunden

Am Anfang,
aber wenn der Kunde glaubt die Konkurrenz diehnt nur den Kunden um die Nvidia-Preise zu senken, dann stirbt entweder die Konkurrenz oder die Konkurrenz steigert die Preise.

Das größte Problem bei Intel sind sicher eher die Treiber bei den Games als ein Verbrauch von +-20 Watt. ;-)

Das Wissen wir noch garnicht, wo genau das Problem ist, weil Intel bis dato praktisch nichts von der DG1-Serie am Markt brauchte, während die DG2-Serie verschoben wurde und immer noch nicht am Markt ist. Intel kämpft auch im CPU-Markt mit einer hohen Ineffizienz der P-Kerne. Die Ineffizienz könnte ein generelles Probleme von Intel sein. Klar, 2011-2016, also zufällig auch die Bulldozer-Zeit, hatte Intel einen relevanten Fertigungs-Vorsprung, der dann jede Ineffizienz in ihren Produkten in eine höhere Effizenz drehen konnte, weshalb Intel in diesen 5 Jahren auch nie den Drang zu mehr Effizienz hatte.

IndiumGaliumNitride

QuoteIntel profitierte von der Pandemie. Man könnte mit den 3nm-TSMC-Probleme argumentieren, aber Die-Größen und Shader-Zahlen passen analog der Konkurrenz sehr gut zur 6nm-Fertigung.

Entweder die Dies & Treiber sind noch nicht optimiert, oder Intel hat einen relevanten Strom-&-Die-Flächen-Effizienz-Rückstand.

Ja bei ihrer eigenen Fertigung. Aber nicht, wenn Intel bei einem Auftragshersteller produzieren lässt.
Die Frage was genau die Probleme und Ursachen sind, das werden wir nie erfahren.
Was man aber weiß, dass verschiedenste Fertigungsverfahren unterschiedlich performen. Eigentlich sind schon lange nicht mehr "nm" interessant. Als technisch interessierte Person möchte ich eigentlich einmal die Transistoren/mm² wissen und dann kann dies für untertschiedliche Strukturen wie Cache oder dem Kern selbst verschieden sein. Zusätzlich interessiert mich für die verschiedenen Bereiche der Verbrauch. Was ich sagen möchte, eine Architektur wird auch auf einen Fertigungsprozess optimiert bzw. umkehrt. Das war zumindest früher Intels Vorteil mit der eigenen Produktion
Heute ist jedoch kein Hersteller mehr von Backports befreit. Wenn das eintritt läuft nichts mehr ideal. Z.b. kann dann eine breitebandige Cacheanbindung für den eine Prozess ideal sein für den anderen wäre eine andere Architektur sinnvoller gewesen.
Demenstprechend meinte ich, dass Intel eventuell sogar in 5nm bei TSMC fertigen wollte. Eventuell wollte Intel sogar genau wegen den derzeitgen Problem auf dem Weltmarkt für ihren Intel 7 und dem 6nm von TSMC eine Architektur, die natürlich jetzt auf beiden nicht optimal läuft.
Wie gesagt Spekulationen, ich würde aber nicht Intel als unfähig abstempeln.

Hier wir selbst untermauert, dass Intel wohl Probleme hatte, das zu bekommen bei TSMC was es möchte:
QuoteDas Angebot wächst stetig, wo Rembrandt 200 Design-Wins (+50) und Cezanne/Lucienne schon 150 Design-Win (+50 Stück) erreichte. AMD kämpft genauso wie Intels Grafikkarten, dass AMD nur begrenzte Kapazitäten bei 5nm und 7nm bekommt.

QuoteNur weil eine Firma nicht schläft, heißt es nicht, dass sie automatisch gleich erfolgreich werden. Siehe AMD/ATI. Mit RDNA2 hat AMD nach Jahren einer Durststrecke wieder den Anschluss gefunden. Jetzt ist generell ein ungünstiger Zeitpunkt keinen Anschluss zu haben.
AMD hatte bei den CPUs auch etwa ein Jahrzehnt eine Durststrecke und die erste Ryzen-Serie war das Gegenteil von großer Wurf. Mein alter Haswell i7 4770k war z.B. beim Computerspielen bei den FPS teilweise besser als der modernere Ryzen 1600er. Seit der 3000er und spätestens der 5000er-Serie war AMD wieder richtig zurück. Also ich würde Intel auch ein wenig Zeit geben.

QuoteBlöd, wenn die 3nm-Fertigung nicht so Rund läuft und Apple bei der Next-Gen iPhone nochmal auf 4nm statt auf 3nm zu setzen. Und EUs verlieren an Bedeutung, wenn die Strom-Effizienz oder IPC eines EUs massiv im Rückstand ist.
Ja es geht sogar soweit, dass wohl nicht jedes Iphone sogar den neuesten Chip bekommen wird.
AMD hat es ähnlich gemacht wie Apple. Der "kleine" M1 im Prinzip die selben Kerne wie die großen Brüder, also wird mehr Performance nur noch im Multicorebereich herausgeholt indem man mehr Kerne nimmt.
Auf der Seite der GPUs muss natürlich Intel noch nachziehen.

QuoteAm Anfang,
aber wenn der Kunde glaubt die Konkurrenz diehnt nur den Kunden um die Nvidia-Preise zu senken, dann stirbt entweder die Konkurrenz oder die Konkurrenz steigert die Preise.
Im Dekstopbereich gibt es einige Leute, denen ist eine Grafikkarte um 250€ schon viel zu teuer. Die hätten sich bei normalen Preisen! dazumals  keine GTX 1060 6Gb oder jetzt auch keine RTX 3060 gekauft. Wenn Intel ihr XeSS gut implementiert hat, dann dürften viele sogar zufrieden sein, wenn ihr Spiel eben mit geringer Auflösung berechnet und anschließen über KI aufgehübscht wird. Also für den Casualgamer ist das eine gute Entwicklung, weil in diesem Preissemgent gibt es mit Sicherheit derzeit 3 statt 2 Konkurrenten. Dem Casualgamer wird es dann auch egal sein ob die GPU mehr verbraucht, hauptsache nicht zu teuer. Ein Freund von mir hört nicht einmal auf die Lüftergeräusche der GPU, weil er zu geizig ist, seinen Boxedlüfter mit einem leiseren auszuwechseln. Ich glaube man unterschätzt den klassischen PC-Käufer, auch bei einigen Gamern. Intel ist in dem Bereich noch immer in der Anfangsphase und ich hatte von Intel weniger erwartet.

QuoteDas Wissen wir noch garnicht, wo genau das Problem ist, weil Intel bis dato praktisch nichts von der DG1-Serie am Markt brauchte, während die DG2-Serie verschoben wurde und immer noch nicht am Markt ist. Intel kämpft auch im CPU-Markt mit einer hohen Ineffizienz der P-Kerne. Die Ineffizienz könnte ein generelles Probleme von Intel sein.
Ich will nicht abstreiten, dass Intel bei ihrer GPU-Sparte noch nachziehen muss. Ich kann aber jetzt schon garantieren, dass in naher Zukunft die eierlegende Wollmilchsau in allen Bereichen ein Problem sein wird.
Im Mobile-Bereich wird Unified-Memory der Standard werden und auf den SoCs wird eben CPU, GPU, KI usw. oben sein. Der jeweilige Hersteller wird nicht in allen Bereich der Beste sein und man wird sich als Kunde entscheinden müssen.

Die hohe Ineffizienz kann ich nicht mehr höhren. Bei welchen Watteintellungen und Szeario? Es ist völlig klar, dass Intel bei geringer Auslasung nicht gut ist. Einem Content-Creator würde ich im Bereich x86er (Windows/Linux) absolut empfehlen einen effizienteren Ryzen zu nehmen. Wer mit Apple und dessen "Luxusgefängis"-Politik zufrieden ist und der auch bei der Software keine Probleme bekommt, der soll sich bitte unbedingt ein Macbook Pro M1 Pro (viele würde sogar das Air reichen) kaufen. Vor allem ein Conten-Creator der bereit ist schon über 2000€ auszugeben für dem ist ein MacBook Pro mit M1 Pro ein Preis/Leistungsieger. Bringt einem Berufsfotografen aber auch nichts, wenn er mit Software unzufrieden ist oder doch 1 Tb SSD besser wäre, da sind wir dann in ganz anderen Preisbereichen.

Ich selbst denke gar nicht an Apple, weil Programme wie Matlab schon einmal mit Rosetter schlecht performen. Programme wie Vivado von Xilinx,  Microchip Studio, Altium Designer, Cadence, etc. brauche ich gar nicht einmal versuchen zu installieren.
Jetzt bleibt mir nur noch Intel oder AMD. Und wenn man mobil unterwegs ist kann man sich z.B. derzeit für einen Rembrandt oder AlderLake entscheiden. Bei einer Watteinstellung von grob 40-50 sind die AlderLake bezüglich Performance/Watt gleichauf bzw. werden sogar besser.
Intel ist bezüglich Latenz und maximaler Performance auf einem Kern trotzdem besser. Beim Gaming sieht man dies in höheren FPS und was bringt mir ein effizienter Prozessor im Multicore, wenn es Berechnungen gibt, die nicht parallelisierbar sind? Es gibt nicht nur Content Creator, Surfer/Office-Benutzer oder Gamer.
Die ganze Engineering-Sparte (von dem habe ich ein paar Software-Beispiele augezählt) braucht trotzdem oft maximale Performance auf einem Kern. Berechnungen in der Strömungslehre habe so viele nichtlineare Probleme. Die ganzen Abhängigkeiten lassen auch hier einen AMD die restlichen Kerne im Idle bis wieder kurzfristig alle rechnen können. Wenn nicht alles schön parallelisiert werden kann wie bei Matritzenrechnungen usw., dann bringt mir das nicht sehr viel. In der Elektrotechnik hat man gottseidank viel lineare Algebra bzw. kann vieles linearisieren. Aber wenn man sich HWiFO64 ansieht, wenn Vivado für den FPGA die Synthetisierung und Implementierung macht, dann sieht man, dass oft nur ein Kern rechnet und die restlichen idlen und immer nur kurzfristig wenn es keine Abhängigkeiten gibt rechnen können. Hier fängts dann an, dass 20% auf einem Kern schneller rechnen der größte Wunsch ist. Klar ich brauche eventuell für die 20% mehr Performance 100% mehr Strom, aber ich kann überhaupt 20% mehr Performance haben. Wenn etwas in 5 statt 6 Studen berechnet wurde, dann ist das schon etwa!

Intel hat für den Otto-Normal natürlich ein riesiges Effizienzproblem. Dafür sind sie derzeit die einzigen zuverlässigen Lieferanten für den gesamten Notebookmarkt. Mir gefällt es gerade auch nicht, dass ich mir nun beim Notebook wohl einen Alder Lake kaufen muss, weil ich mit den Rembrandt zumindest eine Maschine bekomme würde die tendentziell leiser ist und längere Akkulaufzeiten hat, aber auch nur unter der Bedingung, dass nun zumindest USB 4.0 dabei ist. Ich erwarte hier aber auch keine höchste Performance. Außerdem für Rembrandt muss ich teilweise länger warten bzw. die Hersteller sind gar nicht gewillt gewisse Modelle mit Rembrandt auszurüsten.
Im Desktopbereich würde ich mir eventuell nur wegen Gaming einen Alder Lake nehmen. Hier brauchen die Teile im Mix gar nicht so viel Watt und hauptsache mehr FPS. Auch für meine Berechnungen macht es mehr Sinn, dass ein Kern Höchstleistung bieten kann. Würde ich Gamer sein und vor allem Video- und Fotobearbeitungen machen, dann würde ich natürlich zu AMD greifen.






JKM

Ja bei ihrer eigenen Fertigung. Aber nicht, wenn Intel bei einem Auftragshersteller produzieren lässt.

Intel profitierte durch die Pandemie, weil Intel die alten 14nm-Fabriken nochmal mit Voll-Dampf 1-2 Jahre wegen dem +50% höheren Notebook-Bedarf bzw. +33% höheren PC-Bedarf länger profitabel im CPU-Markt nutzen konnte, sodass erst vor nichtmal 6 Monaten Intel mehr in 10nm als in 14nm produzierte.

Bei den Grafikkarten kommt das Grundsätzliche Problem, dass Intel mindestens die Intel7 oder 7nm-TSMC nutzen muss, eigentlich 5nm, was aber limitiert, und Intel diese Kapazitäts-Probleme bei neuster Fertigung bekommt, die AMD seit 2020 hat.

Das sind 2 unterschiedliche Themen, die zufällig zu selben Zeit zusammenfallen. Genauso wie AMD & Nvidia & Intel nicht beliebig bei TSMC bestellen kann, konnte Intel auch nicht beliebig bei ASML die Belichtungs-Tools bestellen.

Intels Grafikkarten dürften IMO bei TSMC so schlecht sein, weil Intel nicht die Erfahrung hat bei TSMC zu fertigen. Intel ist schon mal beim ersten Anlauf gescheitert, den Atom-Kern bei TSMC zu fertigen. Man braucht mindestens 1 Jahr um eine APU oder GPU halbwegs hinzubekommen und ein zweiteres Jahr um diese zu optimieren, weshalb es bei AMD mit APUs und bei Nvidia mit Big-GPUs schon seit Jahrne ein Refresh-Jahr gibt.

Intel hat das Problem in der Fertigung zurückzusein und detto mit Kapazitäten-Neubau mit neuster Fertigung, weshalb Intel es etwas mit Foundrys versucht

Als technisch interessierte Person möchte ich eigentlich einmal die Transistoren/mm² wissen und dann kann dies für untertschiedliche Strukturen wie Cache oder dem Kern selbst verschieden sein.

Man kann diese Googeln.
7nm ... TSMC ist so 93 MTr/mm². Sowohl 6nm-TSMC wie Intel ist so 10% Besser, mit so 101-103MTr/mm², wobei Intels 10nm eher hochwertiger ist und bei selber Transistor-Dichte ich schätze so 10% mehr Takt und etwas mehr Effizienz schafft. Das könnte auch noch der Grund sein, warum die Intel-Grafikkarten (6nm-TSMC) relevant ineffizienter/langsamer (= schlechter) als ihre eigene iGPU-Xe mit 96-EU (= 768 Shaders) ist.

Wobei AMDs Grafikkarten just zum dem Zeitpunkt wieder gegen Nvidia Konkurrenzfähig waren, als AMD den Takt von 1,4-1,5 auf >2,0 Ghz steigern konnte, was AMD bei Grafikkarten bei RDNA2 schafften, aber auch beim Vega8-iGPU.

High-Takt bei einer Foundry ist nicht einfach, was AMD fast 5-10 Jahren erleben musste, wo der Bulldozer-Takt vom 5 Ghz des 32nm-High-Takt-CPU-Fertigung auf 4,0 Ghz (28HP-Foundry-Fertigung) einbrach. Beim 14nm-GF konnte AMD den Takt mäßig auf 4,35 GHz und mit 7nm-TSMC mühselig mit Problemen auf 4,7 Ghz steigern.

Das alles ist kein Wunschkonzert, wo jahrelange Arbeit & Erfahrung nötig ist, und die hat Intel nicht, weil sie viel zu lange auf das Own-Factory gesetzt hat, anstatt vor 10 Jahren die Foundry-Strategie fortzusetzen, wo Fremdfirmen (Altera) bei sich fertigen konnte, sowie Intel mit Atom selber bei TSMC fertigte. Das rächt sich jetzt gewaltig.

Wie gesagt Spekulationen, ich würde aber nicht Intel als unfähig abstempeln. Demenstprechend meinte ich, dass Intel eventuell sogar in 5nm bei TSMC fertigen wollte.

Ich unterstelle Intel schon Unfähigkeit, die in den letzten 20 Jahren nur vom Notebook-CPU (Core2) sowie AMDs Fertigungs-Problemen, was sie selber mit den illegalen Marktmethoden initierten. Natürlich will jeder in 5nm produzieren, aber das wollen alle und das ist das Problem von AMD und Nvidia, die jetzt nicht mehr alles in neuster Fertigung produzieren können, sondern sein Produkt-Portfolio auf 2 (eventuell bald auf 3) Generationen verteilen müssen. Intels "Unfähigkeit" hat sich durch die CEO wechseln und Suche verschärft. Gilsinger kam erst Anfang 2021, wo die 7nm & 5nm-Fertigung seit einem Jahr bei TSMC völlig ausverkauft war. Alchemist (DG2) & DG1 wurde offensichtlich vom Vorgänger maßgebend entwickelt, der eher nicht die Probleme von 2022 erkannte, während der CEO-Vor-Vorgänger offensichtlch den Kopf in den Sand steckte und es fast 1 Jahr brauchte, bis sich damals jemand als Intel-CEO traute.

AMD hatte bei den CPUs auch etwa ein Jahrzehnt eine Durststrecke und die erste Ryzen-Serie war das Gegenteil von großer Wurf.
Klar, aber primär in der Fertigung, weil 2010 kein versprochener 45nm-HKMG-Prozess kam, der 2011 nicht nur fast zu einem Jahr Verschiebung (Nov statt Jän) sondern HKMG probleme beim High-Takt und iGPU machte, weshalb für die APU noch der 28nm-Prozess auf Kosten des 20nm-Prozess (Cancel) entwickelt wurde.

Mein alter Haswell i7 4770k war z.B. beim Computerspielen bei den FPS teilweise besser als der modernere Ryzen 1600er. Seit der 3000er [Zen2] und spätestens der 5000er-Serie [non-CCX-4-Kern = non-Gaming-Schwäche] war AMD wieder richtig zurück. Also ich würde Intel auch ein wenig Zeit geben.

So ist es,
Zen1 hatte praktisch die Bulldozer-FPU (2011), welche mit Zen2 (2019) verdoppelt wurde. Erst mit Zen4 bekommt AMD jene AVX-512-FPU, die Intel schon 2014 hatte.

Ja es geht sogar soweit, dass wohl nicht jedes Iphone sogar den neuesten Chip bekommen wird.

Ich glaube, das bezieht sich nicht für das akutelle Flagschiff. TSMC kann ja trotz 3nm-Problemen in der neuen 3nm-Fabrik in 4nm fertigen.

Im Dekstopbereich gibt es einige Leute, denen ist eine Grafikkarte um 250€ schon viel zu teuer.

Klar,
solange die Preise durch die Decke schießen, ist der GPU-Markt schwer zu beurteilen. Mich würde es ja nicht wundern, wenn mit 5nm-GPUs der nächste Mining-Hype entsteht und alle 5nm-GPUs aufsaugt und der typische Gamer "endlich" vernünftige 6nm-GPU-Preise bekommt.

Dem Casualgamer wird es dann auch egal sein ob die GPU mehr verbraucht, hauptsache nicht zu teuer.

Der Rückstand an Effizienz, wie es gerade aussieht, ist aber bei Intel dermaßen, dass es für viele ein KO-Kritierum wird. AFAIK wird ab Navi 33 wieder in 6nm produziert, der mit 4.096-Shaders so Einheiten-Groß wie der Intel A770 wird, was ein ziemlich interessanter Konkurrenz-Kampf werden kann, wo aber AMD sich verdammt mit den Preis spielen kann, weil ihre Top-Modelle sowieso in 5nm gefertigt werden, während Intels A770-Topmodell in 6nm eher ums Überleben kämpft.

Ich will nicht abstreiten, dass Intel bei ihrer GPU-Sparte noch nachziehen muss.

Intel muss am Ball bleiben, und einfach die DG3 rausbringen. Intels Problem ist, dass sie viel zu spät kapierten, dass Intel in den Architekturen & Techniken einen verdammten Rückstand haben, weil sie viel zu lange von ihren Fertigungs-Vorsprung profierten, sowie das Geschäft weiterhin super lief. Aber das war, weil AMD schon vor Zen die Preise von Generation zu Generation stetig steigerte, und Intel ebenfalls analog dazu.

Ich kann aber jetzt schon garantieren, dass in naher Zukunft die eierlegende Wollmilchsau in allen Bereichen ein Problem sein wird.

Ja eh, deshalb hat AMD auch die CVML- & CDNA- & ZenXc-ZenXD-Entwicklungs-Linien aufgebaut und Xilinx mit FPGA & Co weitere Architektur-Entwicklungen eingekauft.

Im Mobile-Bereich wird Unified-Memory der Standard werden und auf den SoCs wird eben CPU, GPU, KI usw. oben sein. Der jeweilige Hersteller wird nicht in allen Bereich der Beste sein und man wird sich als Kunde entscheinden müssen.

Unified-Memory hat AMD seit 7 Jahren @ Carrizo. Der nächste Schritt war HBM & 3D-V-Cache und Chiplets mit dem AMD sehr günstig & flexibe & schnell APUs zusammenbasteln kann.

Die hohe Ineffizienz kann ich nicht mehr höhren. Bei welchen Watteintellungen und Szeario?
Das ist ein Intel-Grafikkarten-Thread, wo man natürlich die nicht unerhebliche Ineffizienz der Intel-Grafikkarten nicht umsonst erwähnt.

Bei einer Watteinstellung von grob 40-50 sind die AlderLake bezüglich Performance/Watt gleichauf bzw. werden sogar besser.

Mit aktuellen Tests ist der 45W-Rembrandt in Single- wie Multi-Thread exakt den 45W-H-Alder-Lakes. Nur der Alder-Lake-HX oder H mit 135W-&-120W-PL1 einstellungen bringen +9% höhere Single-Thread-Performance und so +30% höhere Multi-Thread-Performance, was aber nicht die selbe Effizienz hat. Von 9W (U9) bis 28W (P & U28) kennen wir noch keine Tests bei Notebook-Check.

Intel ist bezüglich Latenz und maximaler Performance auf einem Kern trotzdem besser
Bis auch HX bisher nicht, was eigentlich für Intel eine Katastrophe ist, weil der 5nm-Zen4-Kern eben kurz bevorsteht, wo ein größerer IPC-Sprung als bei Intels Next-Gen P-Kern zu erwarten ist.

Das Intel mit HX eine +8-9% höhere Single-Thread-Performance bei 120/135W-PL1 schafft, ist wegen der High-Takt-Design und High-Takt-10nm-Fertigung nicht überraschend

Die ganze Engineering-Sparte (von dem habe ich ein paar Software-Beispiele augezählt) braucht trotzdem oft maximale Performance auf einem Kern.

Gut für AMD, dass der 5nm-Zen4 bald kommt, wo ein APU-Chiplet mit 2x 8-Zen4-Kern-APU-Chiplets und einer iGPU im I/O-Chiplet nicht überraschen würde. Massen-Produktion soll nach Gerüchten schon in Mai anlaufen.

Außerdem für Rembrandt muss ich teilweise länger warten bzw. die Hersteller sind gar nicht gewillt gewisse Modelle mit Rembrandt auszurüsten.

Weniger die Hersteller, sonderln weil AMD wegen den 7nm-&-5nm-Limiten nicht mehr liefern kann. Und dann sind wir wieder am Problem an Anfang dieses Beitrags, weil Intel genauso Probleme hatte divesre 5nm-Kapazitäten für 2022 und gar 2023 zu bekommen.

IndiumGalliumNitride

Ich finde die Haltung so interessant. Intel habe angeblich geschlafen und alles sei kein Wunschkonzert und AMD war ja vorher angeblich so arm, weil eben TSMC nicht konnte, aber AMD wäre ja ein super Chipdesigner.
Dann hätte AMD auch die letzten 10 Jahre schauen können eine eigenen Fertigung aufzubauen. Ist eben auch kein Wunschkonzert.

Wir werden sehen wie es in 5 Jahren ausschaut. Selbst wurde erwähnt, dass TSMC Lieferprobleme auch noch bei 5nm und 7nm hat. Genauso wurde von Ihnen selbst erwähnt, das TSMC mit 3nm hinkt.

Wo schläft Intel? Sie können liefern, AMD und Nvidia nicht. Intel baut auch externe Fertigungen aus, können aber im Extremfall auf ihre Fertigung zurückspringen. Wenn TSMC doch nicht mehr Zupferd ist und Intel in eine paar Jahren überholt, dann wird Intel freundlich oder unfreundlich andere Chipdesigner bei sich fertigen lassen.
Intel ist breit aufgestellt. Sie können auch für andere Chipdesigner neueste IPs für ihre Fertigungsprozesse liefern. Intel ist immer ein wenig früher dran wenn es um Dinge wie DDR, PCI-E (inkl. Thunderbold) usw. geht.

Apple hat den Vorteil, dass Hardware und Software im selben Haus entwickelt wird. Intel hat den Vorteil dass Hardware Design und Fertigung angepasst werden kann.
Derzeit ist die Fertigung hinten anstehend und alle haben Intel kritisiert. Jetzt wo vor allem AMD bei TSMC die Stückzahl bekommen, da wird nun nicht AMD kritisiert, dass AMD geschlafen hat und sich nicht unabhängiger gemacht hat. Eigentlich könnte man also genauso gegen AMD schimpfen, wie unfähig der Konzern ist, dass die sich völlig abhängig von TSMC gemacht haben. Klar andere Stückzahl und Preisklasse, aber Apple hat kein Problem bei der Lieferungvon 5nm-Chips.
Dem Kunden ist es wirklich egal, warum ein Produkt gut oder schlecht ist. Früher war AMD schlecht und Intel gut. Heute schimpft der Kunde zurecht über Intel, dass die Effizienz schlecht ist. Dem Applekunden ist es sogar egal, das hier sogar 5nm von TSMC verwendet wird. Der weiß nicht ob es der Chipdesigner, der Fertiger oder beides ist. Dei meisten Kunden sehen nur das Produkt und dessen Preis. Der Kunde hat nur jetzt nicht viel davon, dass AMD ja könnte, wenn sie nicht liefern können.
Die Fertigung ist extrem teuer und Intel hat sich diese trotzdem behalten. Das hat Intel ein Problem bescherrt wie TSMC davonzog. Nun kann aber TSMC nicht liefern. TSMC wird auch nicht ewig das Zugpferd bleiben. Ich sehen icht wo Intel so schlafen würde, sie sind eben derzeit nicht mehr der Platzhirsch, aber auch zur Pandemie ein treuer Lieferant ;-).

Ich bin absolut ein Intel Jüngling. Ich habe beim PC schon AMD und Intel gehabt. Ich bin selbst kein Freund von Apple, habe aber auch schon einigen zu Applegeräten geraten. Ich kaufe mir das Gerät was zu mir passt und vor allem das Gerät, das überhaupt vergübar.

JKM

Dann hätte AMD auch die letzten 10 Jahre schauen können eine eigenen Fertigung aufzubauen. Ist eben auch kein Wunschkonzert.

Öhm,
Globalfoundries waren die eigenen Fabriken, womit AMD eine eigene Foundry-Fertigung aufbauen wollte, wo sie auch ihre eigenen Chipsätze & Grafikkarten bei Globalfoundries statt TSMC gerne gefertigt hätte. In den 00er-Jahren war Globalfoundries noch so 1 Jahr vorne (z.b. Phenom II - Jän-2009, während im Herbst-2009 AMD mit der HD 5000er-Serie (TSMC) noch große Yield-Probleme mit 40nm hatte.) Globalfoundries bekam dann 32nm-HKMG nicht hin, und musste 28HP entwickeln und 20nm canceln, während TSMC nach 28HP dann 20HP entwickelte. In dieser Zeit zu 14nm hat TSMC dann Globalfoundries überholt, wo der Polaris 10 (16nm-TSMC) im Jun-2016 9 Monate vor RyZen 1000 (14nm-Globalfoundries) im März-2017 am Markt kam. Wobei die Massenproduktion bei TSMC schon 3Q-2015 begann.

TSMC hatte mit 20nm und 10nm (und etwas bei 16nm) auch seine Probleme. Aber TSMC machte eher kleine Schritte und führte die EUV-Technologie mit 6nm und später 5nm Step-by-Step ein.

Generell ist TSMC, weil sie seit 20 Jahren eine Foundry sind und eine neue Fabrik nach der anderen bauen, wo selbst die 20 Jahre alten 180nm-Fabriken weiterproduzieren, mittlerweile 4x-fach so viele Wafer-Fläche produziert als Intel.

Wir werden sehen wie es in 5 Jahren ausschaut. Selbst wurde erwähnt, dass TSMC Lieferprobleme auch noch bei 5nm und 7nm hat. Genauso wurde von Ihnen selbst erwähnt, das TSMC mit 3nm hinkt.

Na ja,
bei Lieferengpässe muss man die Details betrachten.

1) 3nm ist das Ende des FinFET-Entwicklungs-Zyklus. Entscheidender ist 2nm-GAA, welches in 2 Jahren in Massen-Produktion gehen soll. Also, in 3 Jahren, also 2025 ist so ein Schlüssel-Jahr ebenfalls mit einer eigenen 2nm-Giga-Fab, deren Bau jetzt statfinden soll, oder schon passierte.

2) Der ganze PC-Markt braucht nur 60-75.000 Wafer-per-Monat mit der neusten Fertigung, also die 1/2 Gigafab. TSMC hat wahrscheinlich gerade die 3nm-Giga-Fab fertig gebaut, während die 2nm-Giga-Fab gerade begonnen wird. Die aktuellen Lieferengpässe sind durch die Smartphone-SoC (und bei Apple auch die PCs) zu erklären, deren Markt mit 2 Mrd. Stück so 6-fach größer ist als der PC-Markt mit 330 Mio. Stück. Der Umstieg von 4G auf 5G führt dazu, dass auch die Smarpthone-Hersteller sehr geil besonders auf 5nm ist. 3nm ist IMO eher nice-to-have, weil 5G in 4nm AFAIK keine Hitzeprobleme mehr macht, aber mit der 3nm-Fab ja trotzdem die 4nm-Kapazitäten erweitert, weshalb immer mehr 4nm-Kapazitäten für AMD frei wird.

3) AMD braucht jetzt auch nicht ummengen an 5nm-Kapazitäten. Klar, in RyZen 6000, Epyc4 und Radeon 7000, aber für die großen Marktanteile kann AMD weiterhin den 6nm-Rembrandt bedienen, der mit USB 4.0 & HDMI 2.1 und DP 2.0 mit allen Techniken bis so 2025+ auf den neusten Standt bleibt. Das blähte den Rembrandt auf so 210mm², was 2022 eher ein Nachteil ist, aber Rembrandt in den nächsten Jahren technisch attraktiv bleibt. Erst recht, wenn Intel bei 10nm-Raptor-Lake nicht nachziehen soll.

4) AMD fertigt nicht nur bei 6nm- und bald 5nm-TSMC, sondern auch bei 14nm-Globalfoundries. Interessanterweise auch bei zweitgrößten UMC. Wenn ich es richtig verstanden habe, war bei Xilinx TSMC auch die primäre Foundry mit ihrer primären Fertigung, während UMC (analog zu AMDs Globalfoundries) die sekundäre Fertigung mit schlechteren Node ist. D.h. hat AMD aktuell schon 3 Foundrys und könnte 2022 mit Samsung als 4. Foundry überraschen.

5) Seit 1 Jahre baut ASML ca. doppelt so viele Belichtungs-Maschinen wie 2019 & viele Jahre davor. Also, jetzt werden mit Abstand so viele Fabriken gebaut wie noch nie, weshalb ich glaube, dass die sogenannten Lieferengpässe viel früher, eventuell 2022, weg sind. Ich befürchte für 2024 & 2025 sogar ziemliche Überkapazitäten.

Wo schläft Intel? Sie können liefern, AMD und Nvidia nicht. Intel baut auch externe Fertigungen aus, können aber im Extremfall auf ihre Fertigung zurückspringen.

Intel hat mit dem Ausbau der Next-Gen-Fertigungen geschlafen. Im 2H-2022 hatte Intel mer in 10nm als in 14nm produziert, während TSMC mit 20% AMD-PC-Marktanteile (7nm) und ~10% Apple (5nm) jetzt schon 30% PC-Marktanteile hat. Mittw 2019 hatte TSMC 0%. Wenn Intel ihre 7nm/Intel5 dann doch im 1Q-2023 hinbekommt, dann sollte es nur so gut wie TSMCs schon 2,5 Jahre alter 5nm oder 4nm-Prozess ist.

Bei Intel ist die Frage, was sie mit ihrer Foundry schaffen. Meteor-Lake (Intel 5) soll im 1Q-2023 kommen, aber ob das Intel zusammenbringt, muss sich noch zeigen. Ich habe so meine Zweifel, weil Intel sowohl bei den Grafikkarten wie bei Chiplet-Technologie (Sapphire Rapid) mit ordentlichen Verspätungen und bei Grafikkarten bei Ineffizienz enttäuschte.

Sie können auch für andere Chipdesigner neueste IPs für ihre Fertigungsprozesse liefern.
AFAIK noch nicht und irgendwann.
Wie ich schon sagte, ich glaube, dass Intel die große Bestellung viel zu spät machte, und eventuell die Masse an Belichtungs-Maschinen erst 2024-2025 bekommt.

Intel ist immer ein wenig früher dran wenn es um Dinge wie DDR, PCI-E (inkl. Thunderbold) usw. geht.

Das war Früher so, dass sie noch ihre eigenen Standards entwickelt haben und früher brachten. Bei DDR5 und PCI-E lässt sich AMD sogar noch zeit, weil noch nicht nötig.

... da wird nun nicht AMD kritisiert, dass AMD geschlafen hat und sich nicht unabhängiger gemacht hat. Eigentlich könnte man also genauso gegen AMD schimpfen, wie unfähig der Konzern ist, dass die sich völlig abhängig von TSMC gemacht haben.

Ohne TSMC müsste AMD weiter ums Überleben kämpfen, weil Globalfoundries den Anschluss verloren hätte, und AMD mit Samsung nicht diesen Aufschwung gehabt hätte. TSMC wurde für AMD ein Segen und kein Fluch. Erst mit dem Aufschwung von TSMC könnte AMD langfristig auch die Samsungs-Fertigung als Massen-Ergänzung sinnvoll nutzen.

Klar andere Stückzahl und Preisklasse, aber Apple hat kein Problem bei der Lieferungvon 5nm-Chips.

Apple konnte 2019 einfach mal paar Mrd. $ auf den TSMC-Tisch werfen, um damals eine 5nm-Voll-Auslastung garantieren, was TSMC damals noch verdammt wichtig war. AMD hatte 2019 absolut keine Finanz-Reserven hatte und konnte Intels massive Fertigungs-Probleme noch nicht Ahnen, weil man Mitte-2019 noch nicht wusste wie genau 10nm-Ice-Lake ist, sowie Intels 7nm-Fertigung für Ende-2021 angekündigt war. Vielleicht hat deshalb erst seine massive 7nm/Intel5-Probleme/Verschiebung angekündigt, als die 5nm-TSMC-Kapazitäten für AMD ausverkauft waren.

Die Fertigung ist extrem teuer und Intel hat sich diese trotzdem behalten.

Mit 3-5 Mrd. $ Gewinn pro Quartal war das nicht schwer, sowie einen Fertigungs-Rückstand bei der Konkurrenz. All das änderte sich massiv seit Mitte 2019, wo TSMC 7nm (per AMD) im PC-Markt einführte und Intel 10nm-Probleme im PC-Markt eine Relevante Auswirkung hatte.

Nun kann aber TSMC nicht liefern. TSMC wird auch nicht ewig das Zugpferd bleiben.

TSMC Lieferprobleme bezogen auf die Kapazität sind nicht mit Intels Fertigungs-Probleme (Intel7 & Intel5-Kapazitäten und Intel5-Qualität) zu vergleichen. Hat TSMC mal die 3nm-Probleme gelöst, dann kann TSMC diese 3nm-Fab von 4nm auf 3nm umstellen.

Langfristig wird entscheidend sein, wie TSMC ihren 2nm-GAA und Intel ihren 20A-RibbonFET hinbekommt. Dies wird entscheiden, wer ab 2024-2025 der Platzhirsch sein wird, während TSMC wegen 5nm (und eventuell noch 3nm) bis 2024 aktuell Platzhirsch bleibt. Die Entwicklung eines neuen Transistor wird in der Regel eher unabhängig der anderen Struktur-Größen erforscht & entwickelt. Intels Problem ist eher die geringe Erfahrung mit der EUV-Belichtung, die für 2nm absolut notwendig ist. Bzw. Intel hat noch nichtmal die EUV-Belichtung per Intel5 in der Massen-Produktion eingeführt, während TSMC vor 2 Jahren mit der 5nm-EUV-Massen-Produktion für iPHone 12 startete.

Die nächsten 12 Monaten werden für Intel verdammt entscheidend, wo wir sehen werden, wie Intel die Grafikkarten (DG2 oder gar schon DG3), die Chiplet-Technologie (Sapphire Rapid) und vorallem die Intel5-Fertigung Meteor Lake) erstmals mit EUV hinbekommt, und wo Intel bei diesen relevanten Technologie genau steht.

Das ist viel entscheidender als die Frage, ob TSMC die 3nm-Fertigung noch so gut vor 2nm hinbekommt. Man darf ja nicht vergessen, dass TSMC die 3nm-Next-Gen-Fertigung auch nicht mit gewalt einführen muss. Apple & Co ist eine saubere Fertigung mit hohen Yields & Co eher wichtiger, weil sie ungeheuere Mengen und eine Planungs-Sicherheit brauchen.

Ich sehen icht wo Intel so schlafen würde, sie sind eben derzeit nicht mehr der Platzhirsch, aber auch zur Pandemie ein treuer Lieferant ;-).

Intel hat bei den Fertigungs-Struktur-Entwicklung nie geschlafen, sondern wennschon zuviel riskiert, weil sie mit 2,4x (7nm)und später (10nm) mit 2,7x, statt der üblichen 2x-fach-Sprünge, zu große Sprünge wollten. Geschlafen hat Intel bei Markt-Expansionen und Fertigungs-Kapazitäten. Hinter dem treuen Lieferant zur Pandemie steckte nichts besonders. Ohne Pandemie hätte Intel mit viel mit ihren 14nm-Fabriken anfangen können und somit zum Problem geworden. Damit hatte Intel genug Zeit diese sinnvoll/profitabel zu nutzen, sowie diese auf eine Foundry-Fertigung vorzubereiten.

Ich habe beim PC schon AMD und Intel gehabt. Ich bin selbst kein Freund von Apple, habe aber auch schon einigen zu Applegeräten geraten.

Bis jetzt ist mir noch keine Affinität zu einer Firma aufgefallen.

Quick Reply

Warning: this topic has not been posted in for at least 120 days.
Unless you're sure you want to reply, please consider starting a new topic.

Name:
Email:
Verification:
Please leave this box empty:

Shortcuts: ALT+S post or ALT+P preview