News:

Willkommen im Notebookcheck.com Forum! Hier können sie über alle unsere Artikel und allgemein über Notebook relevante Dinge disuktieren. Viel Spass!

Main Menu

Die Nvidia GeForce RTX 4080 startet in Deutschland zu Preisen ab 1.799 Euro

Started by Redaktion, November 15, 2022, 20:22:03

Previous topic - Next topic

Redaktion

Die Nvidia GeForce RTX 4080 sollte in Deutschland für eine unverbindliche Preisempfehlung von 1.469 Euro auf den Markt kommen. Zum heutigen Launch fallen die Preise aber bedeutend höher aus, selbst die günstigste Variante kostet über 300 Euro mehr als angekündigt.

https://www.notebookcheck.com/Die-Nvidia-GeForce-RTX-4080-startet-in-Deutschland-zu-Preisen-ab-1-799-Euro.668571.0.html

TimeTurn

1800 Euro? Für 1000 Euro weniger würde ich vielleicht drüber nachdenken und vermutlich auch dann noch sagen: nö, aber so können die sich das Teil sonst wo parken.

KK

Gar nicht drauf anspringen. Der offizielle Release ist um 15 Uhr, alles davor interessiert nicht, weil es nur Lockangebote für Blöde sind, die einfach bestellen. In 9 Stunden findet man dann auch die FE zur UVP und Custom Modelle für 1500-1600 €. Mal schauen, wie lang die Bots diesmal brauchen

RobertJasiek

Die initiale UVP der 3080 10 GB Nicht-LHR war €699. Mit Mehrwertsteueränderung, Wechselkursänderung und US-Inflation müsste die UVP der 4080 ca. €950 sein. Die UVP von €1469 ist gut €500 zu hoch. Hätte die 4080 den anständigen Preis, kaufte ich sie.

Die UVP sagt aber ganz klar: Finger weg! Nvidia darf die 4080 schreddern und entsorgen. Wir Endverbraucher sind keine Melkkühe. Wucherpreiskonditionierung durch Herstellungs-, Transport- und Rohstoffkostenlügen, künstlicher Angebotsverknappung, Coronaausreden, Nicht-Verfügbarkeit der 3080 10 GB Nicht-LHR oder Cryptopreise, ungewollter LHR, überteuerte 3080 TI, überteuerte 3080 12 GB, überteuerte 3090 und initial maßlos überteuerte 3090 TI kocht uns nicht weich. Straft Nvidia ab und kauft gar nichts oder AMD!

Ich versuche nun seit 2,5 Jahren, meine erste hinreichend schnelle Grafikkarte zu kaufen, aber Nvidia schafft es, mich noch länger warten zu lassen. Ich zahle keine €500 zu viel, nur weil Nvidia gierig ist. Ich zahle auch keine 115 - 140% UVP mehr als 2 Jahre nach Launch der 3080, zu einem Zeitpunkt, wo der angemesse Preis 70% UVP wäre.

Nvidia versucht mich auszupressen und erreicht das Gegenteil. Ich hätte ein Kunde werden können, der jede Generation die jeweils neueste Grafikkarte gekauft hätte. Wegen Nvidias Verhalten kaufe ich stattdessen, wenn überhaupt, nur einmal alle 10 Jahre eine Grafikkarte. Nvidia wird möglicherweise einmal an mir etwas mehr verdienen, aber im Mittel während der kommenden 10 Jahre verdient Nvidia an mir deutlich weniger. Solche Aktienunternehmen denken nur noch kurzfristig. Was dadurch passiert, sieht man an Facebook und Twitter. Unternehmen, die mit Auspressen oder Endverbrauchermissachtung überzocken, stürzen ab.

Gunar Gürgens

Quote from: RobertJasiek on November 16, 2022, 07:13:34Ich versuche nun seit 2,5 Jahren, meine erste hinreichend schnelle Grafikkarte zu kaufen, aber Nvidia schafft es, mich noch länger warten zu lassen. Ich zahle keine €500 zu viel, nur weil Nvidia gierig ist. Ich zahle auch keine 115 - 140% UVP mehr als 2 Jahre nach Launch der 3080, zu einem Zeitpunkt, wo der angemesse Preis 70% UVP wäre.

Sieht bei mir ähnlich aus, allerdings hatte ich mit einer 6800XT geliebäugelt. Jetzt, da die 7900er rausgekommen sind, hoffe ich darauf, dass die Preise sinken, oder eine 7600 oder 7700 ähnlich schnell zu günstigeren Preisen werden.
Der ganze Crypto Markt ist jetzt (hoffentlich endgültig) am abstinken, sodass hier weniger verkauft werden dürften.
Daumen drücken!

ghrcu

Preis ist völlig in Ordnung. Gaming ist sowieso kein Hobby für Arme. Ein neues iPhone kostet fast halt genauso viel.

JKM

Straft Nvidia ab und kauft gar nichts oder AMD!

Scheinbar hat bei dir das Great Awakening und Great Reckoning begonnen.

Wir Endverbraucher sind keine Melkkühe.

Oh doch, und das wurde noch mit Druck befürwortet. Nur haben es die Melkkühe nie gemerkt.

Nvidia (wie Intel) hat schon immer abgezogt. Deswegen haben beide Firmen in den letzten 20 Jahren sogar versucht mit illegalen Marktmethoden die AMD_Konkrrenz uneinholbar abzudrängen, als Intel und Nvidia vorne lagen sowie ihre Marktmacht ausnutzen. Nur durch den Preiskruck von AMD waren die Preise niedrig. Damit hat AMD aber vor 10 Jahren aufgehört und seit 10 Jahren die Preise gesteigert. Scheinbar hat AMD damit mit diesem Jahr aufgehört, weil die Abzocker-Schwelle erreicht wurde.

Wie Geldgierig Nvidia ist, hat sich jetzt durch den BitCoining-Markteinbruch gezeigt. Denn da bekam Nvidia einen Umsatz-Einbruch von 3,5 auf vorerst ~1,0 Mrd. $, was zeigt, wie extrem Nvidia versuchte diesen Markt melkte. Dafür brachten sie die Ti-Karten mit +50-100% Preissteigerung am Markt, welche offenbar fast nur mehr produzierten. Scheinbar galubt Nvidia jetzt, dass sie so weitermachen können. Das hat mich selbst überrascht. Aber kann man es ihnen verübeln? Nvidia macht das schon seit 15 Jahren so, und bisher war es für Nvidia die reinste Erfolgstory. Bis 2015 noch mit illegalen Methoden und danach hat AMDs Preissteigerungen schon so eine höhe, dass Nvidia ebenfalls die High-End-Preise deutlich steigern konnte.

Wer es noch nicht verstanden hat, der lässt sich halt melken.
Ich persönlich setze länger primär sogar auf iGPUs.

Mit AMD gibt es im Grafikkarten-Markt immerhin eine Alternative.
Wobei diese Alternative meiner Meinung auch im Grafikakrten-Markt ab RDNA3 zum absoluten Konkurrenten montierte. Sowas wie Zen2 (Chiplet) und Zen4 (AVX-512 mit VNNI-Deep-Learning) in einem. Denn mit Dual-Issue (Int/FPU und FPU) konnte AMD seine FP-Shaders verdoppeln, wie es Nvidia AFAIK schon länger hat. Dazu hat AMD mit dezidierten AI-Einheiten und 2. Gen Raytracing-Unit einen guten Schritt in die neue Gaming-Ära gemacht. Mit Chiplet will AMD die Kosten deutlich reduzieren, um höchste Profite & Margen auch bei "moderaten" Grafikkarten-Preisen zu erreichen. Der Memory-Controller und de Infinity-Cache kann mit 5nm kaum skaliert werden, weshalb diese auf das günstigere 6nm auslagert wurde.

Gerade mit der Chiplet-Technologie kann AMD mit moderaten Preisen einen Marktanteils-Konkurrenz-Kampf anführen, was früher oder später vielleicht zu einem Preiskrieg führt. Technologie hat AMD mit RDNA3 meiner Meinung keinen relevanten Grafik-Qualitäts-Nachteil mehr.

Ein neues iPhone kostet fast halt genauso viel.
Ein iPhone ist im Alltag viel mehr integriert bzw. für viele im Alltagsleben ein wesentlicher Bestandteil. Eine Gaming-Karte hat nur den Sinn des Unterhaltungs-Zweck.

Bei Corona dreht sich das, als mit Lockdown & Maßnahmen der Alltag außerhalb des Hauses oder Landes völlig eingeschränkt war und man viel Unterhaltung im Haus brauchte. Deswegen habe ich mir mein S21 oder S22 gekauft. Dazu kam, dass durch die Alltagsbeschränkung viele auch kein Geld im Urlaub oder beim Alltag ausgeben konnten, sodass sie das überteuer kaufen konnten, was sie Zuhause viel zur Unterhaltung nutzen konnten a la Grafikkarten oder Peleton-Ergometer (Fitness + Unterhaltung mit Community-Kommuniktion).

Nvidia will Post-Corona noch die Corona-Preis-Welle reiten.

RobertJasiek

"Eine Gaming-Karte hat nur den Sinn des Unterhaltungs-Zweck. "

Das weißt du besser als falsch so.

JKM

Was ist daran falsch?
Ich spreche von Gaming-Karten und nicht von Profi & Workations-Karten.

RobertJasiek

Heutzutage ist jede dGPU eine Multi-Purpose-Karte für 3D-Gaming, KI-Gaming, KI, Work u.v.a.m. Nicht zu verwechseln mit dem Herstellermarketing, die Geforce vornehmlich als 3D-Gaming, A-Serie vornehmlich als Work dank Treiber und Hopper vornehmlich als Datenzentrum vermarktet und bepreist. Auch für Geforce kann man zwischen Gaming- und Studiotreibern wählen.

JKM

Wenn du schon so in Details gehst,
dann musst du in jedem Detail erklären, in welchen Marktsekment bzw. welcher Nutzungs-Art die Grafikkarte zu teuer ist. Ach ja auch wie zu teuer.

Sonst war auszugehen, dass du zuvor auch aufs Gaming beziehst.
KI-Gaming hörte ich noch nie. KI ist Teil des Gaming, genauso wie in den letzten 20 Jahren weitere Teile ins Gaming dazukamen. Genauso wie das 3D-Beschleuniger-Karten in die Grafikkarten hineinwanderten.

Genauso wie bei der CPU bzw. APU,
wo zuerst der Memory-Controller, dann die iGPU und später die Southbrigde in dei CPU wanderte.



GreenJuly

Quote from: RobertJasiek on November 16, 2022, 13:43:21Heutzutage ist jede dGPU eine Multi-Purpose-Karte für 3D-Gaming, KI-Gaming, KI, Work u.v.a.m. Nicht zu verwechseln mit dem Herstellermarketing, die Geforce vornehmlich als 3D-Gaming, A-Serie vornehmlich als Work dank Treiber und Hopper vornehmlich als Datenzentrum vermarktet und bepreist. Auch für Geforce kann man zwischen Gaming- und Studiotreibern wählen.

Wow, da hast du aber toll Wörter zusammengeschraubt. KI-Gaming UND KI! Das ist natürlich ein starkes Stück.
Fehlt noch, dass du KI-Work und Work-Gaming anführst. Da klingt die GPU gleich viel attraktiver.
Was du eigentlich sagen wolltest ist Gaming und Work. KI ist wenn überhaupt Teil der Arbeit. Klingt halt aber nicht so cool.

Digidoctor

@JKM: Bitte mal die Bedeutung von "scheinbar" nachschlagen und dann gezielt einsetzen. Die Nutzung ist ohne diese Kenntnis meist sinnentstellend.

JKM


RobertJasiek

Ihr solltet euch informieren, bevor ihr KI-Gaming als mein Wortspiel abtut! Ganz im Gegenteil ist KI-Gaming, wenn eine KI (z.B. ein Deep Neural Net z.B. AlphaGo oder KataGo für das Brettspiel Go oder AlphaZero für Schach und seine Varianten) selbst spielt (also Partiezüge generiert) auf Spielniveau typischerweise weit jenseits der stärksten menschlichen Spieler. Die Firma DeepMind (mittlerweile von Google aufgekauft) fing mit dem Spielen von Atari-Games an, ist nach dem AlphaGo-Erfolg z.B. auch in Chemie und Medizin aktiv geworden und hat das langfristige Ziel einer Allgemeinen Künstlichen Intelligenz (was allerdings angesichts der Berücksichtigung von Ethik und Gefühlen ein hochtrabendes Ziel ist).

Quick Reply

Warning: this topic has not been posted in for at least 120 days.
Unless you're sure you want to reply, please consider starting a new topic.

Name:
Email:
Verification:
Please leave this box empty:

Shortcuts: ALT+S post or ALT+P preview