News:

Willkommen im Notebookcheck.com Forum! Hier können sie über alle unsere Artikel und allgemein über Notebook relevante Dinge disuktieren. Viel Spass!

Main Menu

Post reply

The message has the following error or errors that must be corrected before continuing:
Warning: this topic has not been posted in for at least 120 days.
Unless you're sure you want to reply, please consider starting a new topic.
Other options
Verification:
Please leave this box empty:

Shortcuts: ALT+S post or ALT+P preview

Topic summary

Posted by JKM
 - January 26, 2023, 22:32:38
Ich hatte $17000 gelesen und du meinst $22000 - was stimmt?

Ich hatte von 22.000 $ gelesen. Was stimmt weiß ich nicht.
Die 22.000 $ würden passen, weil TSMC einerseits 2,5-3 mal so viel UMsatz in 5nm als in 16nm-Prozess und andererseits aktuell so viel Umsatz mit dem 16nm-Prozess macht als vor 4-5 Jahren mit 10nm-12nm-16nm machte, der Anfangs so 12.000 $ und später nur langfristig auf so 8.000 $ gefallen ist. Was ich AFAIK so las und in Erinnerung habe. Gigafabriken sind mit 120-150.000 Wafer-per-Monat meistens gleichgroß.

Verstehe ich dich richtig, dass es etwa konstant $75 waren, also keine Mehrkosten durch den Chip in der Mittelklasse?

Genaue Zahlen gibt es ja nicht. Man kann nur Abschätzen. Exakt bekannt ist die Wafer-Fläche von so 70.000mm² @ 300mm und die Die-Größen. Ab und zu erfährt man die Yields, die aber damals ab 200mm² relevant waren. Besonders bei 500mm², die bei Nvidia damals auch recht früh mit neuer Fertigung am Markt kamen. Und wenn die Fertigung noch nicht ganz ausgereift & optimiert (sagen wir ~75%) war, konnte die 500mm²-Die schon so 100-125$ ausmachen, was damals mit 500 $ noch gewinnbringend war. (TEndenz steigende Yields und etwas sinkende Waferkosten) Bei GF100 war per GTX 480 die Yield ein einziges mal viel zu schlecht. Nur der GTX 280 (GT200 @ 575mm²) wars sie kaum gewinnbringend weil 260mm² kleine HD 4870 so 90% der GTX 280-Performance schaffte und das 1/2-Preis, weil es wahrscheinlich nur 1/2 Kosten bei >1/2-Die-Größe hatte.

Für Entwicklungskosten gestehe ich Nvidia keinen neuen Aufpreis zu, da die Marge schon vorher 2/3 war.

Und wenn die Entwicklungskosten deutlich steigen, und die 2/3 Marge bleiben sollen, dann steigt eben er Preis.

Wer weiß,
vielleicht sind die Nvidia-Preise wegen eventuellen Übervollen Nvidia-Grafikkarten bei Händler-Partner und Grafikkarten-Partner so hoch aufgesetzts, um nicht mit einem Schlag enorme Vermögenswerte bei Nvidias-Partner einbrechen zu lassen. AMD könnte dabei gut mitspielen, weil sie die 4nm/5nm-Kapazitäten gut für die CPUs und APUs nutzn kann. Wobei AMD genauso mit übervollen Grafikkarten-Lager zu kämpfen hat, was sich auch damit zeigen könnte, dass die RX 6000-Preise eine etwas besser P/L-Verhältnis hat als die RX 7000-Serie.

Der einzige belastbare Grund für Kostensteigerung ist die 15% US-Inflation in den 2 Ampere-Jahren.

Ganz im Gegenteil,
PC-Technik hatte in den letzten Jahrzehnten bisher immer die Inflation gedrückt, weil die CPU & PC immer billiger wurde. Zumindestens bis 2017.

Die Grafikkarten werden nicht in der USA produziert, sondern in Taiwan, die in den letzten 10 Jahren eine Inflation im Schnitt von so 1% hatte und 2021 nur kurz leicht auf 2% gestiegen ist. (2020 Sogar -0,24% "Inflation" öh Deflation). Klar, Forschung & Entwicklung ist in den USA, aber der macht nur einen Teil an.

Die Die-Entwicklung ist aber AFAIK primär in Taiwan, die aber von Generation zu Fertigungs-Generation massiv steigt, und AFAIK bei 5nm schon relevante 100-150 Mio. $ ausmacht. Blöd, wenn die Die des 4060 dann recht viel kostet, was dann hohe Preise bei übliche 2/3-Margen bedeutet. Dies bedeutet deutlich geringere Stückzahlen, was die Entwicklungs-Kosten pro Die wieder zusätzlich deutlich steigert.

Also,
guter Tipp,
Gut aufpassen und merken, wenn du wieder Entwicklungs-Kosten von Dies hörst, vorallem bei Next-Gen-Fertigung a la 3nm, 2nm,... usw
Posted by RobertJasiek
 - January 26, 2023, 08:31:03
Ich hatte $17000 gelesen und du meinst $22000 - was stimmt?

Verstehe ich dich richtig, dass es etwa konstant $75 waren, also keine Mehrkosten durch den Chip in der Mittelklasse?

Für Entwicklungskosten gestehe ich Nvidia keinen neuen Aufpreis zu, da die Marge schon vorher 2/3 war.

Der einzige belastbare Grund für Kostensteigerung ist die 15% US-Inflation in den 2 Ampere-Jahren.
Posted by JKM
 - January 26, 2023, 06:30:37
Naja,
Mit einem 22.000$ Wafer-Preis würde so eine GA106-4060TI so 75$ kosten. Das sind durchaus Chipkosten in jenen Bereich (75-100$) indem Nvidia auch für ihren 500mm²-High-End-GPUs gezahlt hat und 500-700$ Preise angeschlagen hat. Wenn das nicht ansatzweise gerechtfertigt sein soll, dann waren das die Preise 2008-2018 auch nicht. Aber damals feierte man Nvidia eher noch und sah die Preise noch gerechtfertigt.

Übertrieben sehe ich die Preise eher beim 4080 und 4090. Die 3-fache Chipkosten würden nur einen Preis von 225 $ bedeuten. Aber dafür +500 oder +1000$ zu verlangen ist schon heftig. Oder es wurde alles (R&D und Gewinn) 3-fach angerechnet und angesetzt. Also die Mrd. $ schwere Adalove-Archtitektur-Entwicklung, sowie der aktuelle Fall und zukünftige Wegfall der Massengrafikkarte a la MX- und GT-Serie, vorallem im Notebook-Markt. Denn die Entwicklungs-&-Forschungs-Kosten konnten auch an diesen Massen-Chips angerechnet werden.

Mal sehen,
ob die im Vergleich zu früher viel höheren Grafikkarten-Preise nicht ein Schuss ins eigene Knie werden. Denn 2018 hat Nvidia bei 1,5 Mrd. $ Gaming-Grafikkarten (WIE JETZT) "nur" 500 Mio. $ Umsatz im DataCenter gemacht. Jetzt macht Nvidia 3-4 Mrd. $ Umsatze, wo der Gewinn-Anteil im Server-Markt bekanntlich höher ist. Also das meiste Gewinn kommt bei Nvidia aktuell mit riesen Abstand vom DataCenter-Markt. Mit den aktuellen Nvidia-Preisen kann Nvidia aber den Ruf im Gaming-Markt völlig versauen, was langfristig im Schlimmen Fall Einfluss auf den DataCenter-Markt haben könnte.
Posted by RobertJasiek
 - January 25, 2023, 08:33:53
Du bist doch derjenige, der uns vorrechnen kann, was je nach Diegröße ein GPU-Chip bei TSMC kostet, wo der 300mm-Waferpreis für 5nm $17,000 sein soll! Die aktuellen Grafikkartenpreise sind dadurch nicht ansatzweise gerechfertig!
Posted by JKM
 - January 25, 2023, 07:56:31
Ich hab mir Dezember 2018 eine RTX 2080 für 598€ gekauft.

Der Wafer-Preis sollte aktuell mit 5nm 2-3 fach so teuer sein wie der 12nm von Dez-2018. Denn TSMC macht aktuell 2,6-fach mehr Umsatz mit 5nm als damals und heute mit 12nm. Damit könnte die Technologische Entwicklung von 12nm auf 5nm 1:1 durch die Preissteigerung aufgefressen sein, was die Stagnation erklären könnte.

Analog dazu die 3070 mit selben Preis bei selber Performance.

Nicht umsonst ist Nvidia nach 12nm-TSMC zur Samsung-Fertigung (8nm) gewechselt.
Posted by RTXBen
 - January 25, 2023, 07:13:47
Stagnation. Schade um die Entwicklungszeit für die Karte.

Das ist einfach ein schlechtes und überteuertes Produkt.
Schafft Nvidia es wirklich nicht mehr einen Chip mit vernüftiger Leistung in einem bezahlbaren Rahmen zu entwickeln?
Posted by BastianKlinge
 - January 24, 2023, 09:57:29
Wie Robert schon geschrieben hat...
Ich hab mir Dezember 2018 eine RTX 2080 für 598€ gekauft. Wenn die 4060 Ti für (wahrscheinlich nach Release erstmal deutlich über) 500€ grad mal 40-50% besser ist als meine vierjährige, dann lohnt sichs noch lange, sehr lange nicht, ne neue zu holen.
Posted by RobertJasiek
 - January 23, 2023, 19:53:42
Was jetzt - "zum effektiv günstigeren Preis" oder "€550"? Beides kann nicht gleichzeitig wahr sein!
Posted by Redaktion
 - January 23, 2023, 19:07:40
Nvidias Mittelklasse-Grafikkarte der nächsten Generation soll Deep Learning Super Sampling 3.0, eine erstklassige Raytracing-Performance und eine Raster-Leistung auf dem Level einer GeForce RTX 3070 zum effektiv günstigeren Preis bieten, laut der jüngsten Gerüchte.

https://www.notebookcheck.com/Geruecht-Nvidia-GeForce-RTX-4060-Ti-bietet-die-Leistung-der-GeForce-RTX-3070-fuer-500-US-Dollar.684167.0.html