News:

Willkommen im Notebookcheck.com Forum! Hier können sie über alle unsere Artikel und allgemein über Notebook relevante Dinge disuktieren. Viel Spass!

Main Menu

Post reply

The message has the following error or errors that must be corrected before continuing:
Warning: this topic has not been posted in for at least 120 days.
Unless you're sure you want to reply, please consider starting a new topic.
Other options
Verification:
Please leave this box empty:

Shortcuts: ALT+S post or ALT+P preview

Topic summary

Posted by Dirty87Harry
 - November 16, 2022, 20:30:49
Es scheint ja genug Lemminge (Scalper, Miner und Leute mit losem Geldbeutel) zu geben die NVidia deren Geld in Rachen stopfen

Zur Erinnerung meine RTX 2080 hatte damals 700 € gekostet werde wohl zu AMD gehen

Ich brauche keinen überteuerten Backstein der Strom wie ein Atomkraft zieht und jederzeit abfackeln könnte
Posted by Digidoctor
 - November 16, 2022, 20:27:00
Eine gebrauchte 3090 fertig umgebaut auf Wasserkühlung war mir mit 900 Euro noch ordentlich was wert. Im Vergleich zu einer wassergekühlten 4090 mit dreifachem Preis aber super P/L....
Posted by RobertJasiek
 - November 16, 2022, 18:00:31
Quote from: JKM on November 16, 2022, 17:21:00Fürs Schach gamen brauche ich keine 1.800 Euro Grafik-/Gaming-Karte. Da reicht mir ein Paper Brettspiel, ein Spiel-Partner und eine Flasche guter Wein.

Für dich sind die Geforce-Preise offensichtlich noch zu niedrig.

Sehr witzig.

Man verwendet KI statt Selbststudium nur durch Nachdenken oder menschlicher Gegner in der realen oder Server-Welt, um stärkere Gegner zu haben, mehr Verfügbarkeit von (stärkeren) Gegnern zu haben, Partien anhand von Zugvorschlägen zu analysieren, Spieltheorie anhand von Zugvorschlägen weiterzuentwickeln oder für Selbststudium durch Nachdenken unter Berücksichtigung alternativer, oft stärkerer Züge während ganzer Partien oder gezielt gewählten Teilen von Partien (z.B. die Eröffnungsphase).

Wieviel man für eine Grafikkarte ausgeben sollte, damit sie hinreichend starke Züge spielt, hängt von der Spielstärke und den Analyseeinsatzzwecken des Käufers ab. Anfänger können auch auf der CPU spielen. Ich als 5-Dan bräuchte als reinen Spielgegner ca. 3050- bis 3060-Geschwindigkeit. Allerdings will auch Analyse stärker als alle menschlichen Spieler haben, da reicht vielleicht 3070 bei hinreichend geringen Wartezeiten pro Zug. Darüber hinaus will ich allerdings Gotheorie umfassender weiterentwickeln, als ich es bisher durch Nachdenken getan habe. Dafür brauche ich vermutlich mind. 3080. Noch schnellere Karten verringern die Sekundenbruchteile zwischen je zwei generierten Zügen und halten Theorieanfechtungen länger stand.

Also etwa 3080 sollte ich schon kaufen, 4090 ist zwar schneller aber nicht notwendig und eher Luxus. Allerdings ist die genau notwendige Karte geraten; ich kann mich um 1 oder 2 Tiers nach oben oder unten irren. Was ich sicher weiß ist, dass 2 * 1080 TI (dürfte etwa 1 * 3080 entsprechen) stärker als alle Menschen beim bloßen Spielen sind, wobei ich die genaue Wartezeit in Sekundenbruchteilen zwischen zwei Zügen nicht kenne (soll aber größenordnungsmäßig praktikabel sein).

Es gibt auch Gotheorie, die Menschen besser können als KI. Z.B. habe ich einige Endspieltheorie mathematisch bewiesen und gelöst, während KI bisher immer nur emuliert (stochastisch rät kombiniert mit taktischem Teilrechnen).

Hätte ich Verwendung für Hopper-Server für 1 Millionen Euro aufwärts? Klar. Nur bezahlen kann ich sie nicht:)

Und ja, natürlich ist ein Brettspiel für uns Menschen in erster Linie Freude am Spiel gegen menschliche Gegner und bei Denkspielen ist das Denken Teil der Freude. Das heißt aber nicht, dass man nicht viel Zeit ins Lernen investiert, ob nun mit Büchern, Problemen oder KI. Für starke Spieler ist es z.B. 90% Studium, 10% Spielen.
Posted by RobertJasiek
 - November 16, 2022, 17:30:46
Quote from: JKM on November 16, 2022, 15:31:19in welchen Marktsekment bzw. welcher Nutzungs-Art die Grafikkarte zu teuer ist.

Konkret zur 4080:

Wenn immer eine 4090 eine Nutzung gut erfüllt, ist 4080 zu teuer, da man besser gleich eine 4090 nehmen sollte wegen der deutlich höheren Geschwindigkeit. (Vorbehaltlich einer Klärung der Brandgefahr.)

Hopper wäre noch teurer braucht also nicht diskutiert zu werden.

A-Serie-Grafikkarten unterhalb des 4080-Preises machen nur in Spezialfällen Sinn, wenn bestimmte Software zwingend auf die besonderen Treiber angewiesen ist oder über die Maßen stark von ihnen profitiert und AMD-Karten diesbezüglich keine (gar bessere) Alternative sind. Ansonsten ist die A-Serie i.W. nichts als überteures Upselling der Geforce-Karten.

Für alle anderen Anwendungszwecke der Preisklasse bis etwa €1200 sollte man unterscheiden zwischen zivilbepreisten Karten und überteuerten Karten, deren Mehrgeschwindigkeit in keinem Verhältnis zum Aufpreis steht: i.B. 3080 12 GB, 3080 TI, 3090, 3090 TI. Diese Karten wurden aus zwei Gründen geschaffen: während des Miningbooms bei knapper Verfügbarkeit das meisten rauszupressen (statt 3080 10 GB verfügbar genug zu machen für Preise maximal auf UVP-Niveau) und den Wucherpreisen der 4080 16 GB und der abgesagten 12 GB den Weg zu bereiten.

Im Ergebnis ist der Preis der 4080 relativ zu Geschwindigkeit / Effizienz abgeleitet von und vergleichbar mit der 4090, während der Preis relativ zu Geschwindigkeit / Effizienz abgeleitet von und vergleichbar mit der 3070 und 3080 10 GB sein sollte.

Warum? Weil wir andernfalls nach ein paar weiteren Generationen Nvidia-Geforce-Grafikkarten pro Karte €1.000.000 zahlen sollen. Gamers Nexus nennt es Stagnation, wenn der Preis proportional zur Geschwindigkeit wächst wie bei der 4080. Wenn die P/L-Stagnation anhält, erreichen wir solche astronomischen Preise. Die Antwort auf die Frage, für welche Anwendungen die Karten einzusetzen sein werden, wird dann sein: keine.

Frage mich also nicht, für welche Anwendungen 4080 Sinn macht, sondern frage, warum irgendjemand die Stagnation mitmachen und die 4080 überhaupt kaufen sollte. Einzige Sinngebung: um die Nvidia-Aktionäre reich zu machen.
Posted by JKM
 - November 16, 2022, 17:21:00
Fürs Schach gamen brauche ich keine 1.800 Euro Grafik-/Gaming-Karte. Da reicht mir ein Paper Brettspiel, ein Spiel-Partner und eine Flasche guter Wein.

Für dich sind die Geforce-Preise offensichtlich noch zu niedrig.
Posted by RobertJasiek
 - November 16, 2022, 17:07:59
Ihr solltet euch informieren, bevor ihr KI-Gaming als mein Wortspiel abtut! Ganz im Gegenteil ist KI-Gaming, wenn eine KI (z.B. ein Deep Neural Net z.B. AlphaGo oder KataGo für das Brettspiel Go oder AlphaZero für Schach und seine Varianten) selbst spielt (also Partiezüge generiert) auf Spielniveau typischerweise weit jenseits der stärksten menschlichen Spieler. Die Firma DeepMind (mittlerweile von Google aufgekauft) fing mit dem Spielen von Atari-Games an, ist nach dem AlphaGo-Erfolg z.B. auch in Chemie und Medizin aktiv geworden und hat das langfristige Ziel einer Allgemeinen Künstlichen Intelligenz (was allerdings angesichts der Berücksichtigung von Ethik und Gefühlen ein hochtrabendes Ziel ist).
Posted by JKM
 - November 16, 2022, 16:26:08
Danke für die Erinnerung!!!
Es schien so, ist offensichtlich doch nicht.
Posted by Digidoctor
 - November 16, 2022, 15:51:15
@JKM: Bitte mal die Bedeutung von "scheinbar" nachschlagen und dann gezielt einsetzen. Die Nutzung ist ohne diese Kenntnis meist sinnentstellend.
Posted by GreenJuly
 - November 16, 2022, 15:38:19
Quote from: RobertJasiek on November 16, 2022, 13:43:21Heutzutage ist jede dGPU eine Multi-Purpose-Karte für 3D-Gaming, KI-Gaming, KI, Work u.v.a.m. Nicht zu verwechseln mit dem Herstellermarketing, die Geforce vornehmlich als 3D-Gaming, A-Serie vornehmlich als Work dank Treiber und Hopper vornehmlich als Datenzentrum vermarktet und bepreist. Auch für Geforce kann man zwischen Gaming- und Studiotreibern wählen.

Wow, da hast du aber toll Wörter zusammengeschraubt. KI-Gaming UND KI! Das ist natürlich ein starkes Stück.
Fehlt noch, dass du KI-Work und Work-Gaming anführst. Da klingt die GPU gleich viel attraktiver.
Was du eigentlich sagen wolltest ist Gaming und Work. KI ist wenn überhaupt Teil der Arbeit. Klingt halt aber nicht so cool.
Posted by JKM
 - November 16, 2022, 15:31:19
Wenn du schon so in Details gehst,
dann musst du in jedem Detail erklären, in welchen Marktsekment bzw. welcher Nutzungs-Art die Grafikkarte zu teuer ist. Ach ja auch wie zu teuer.

Sonst war auszugehen, dass du zuvor auch aufs Gaming beziehst.
KI-Gaming hörte ich noch nie. KI ist Teil des Gaming, genauso wie in den letzten 20 Jahren weitere Teile ins Gaming dazukamen. Genauso wie das 3D-Beschleuniger-Karten in die Grafikkarten hineinwanderten.

Genauso wie bei der CPU bzw. APU,
wo zuerst der Memory-Controller, dann die iGPU und später die Southbrigde in dei CPU wanderte.


Posted by RobertJasiek
 - November 16, 2022, 13:43:21
Heutzutage ist jede dGPU eine Multi-Purpose-Karte für 3D-Gaming, KI-Gaming, KI, Work u.v.a.m. Nicht zu verwechseln mit dem Herstellermarketing, die Geforce vornehmlich als 3D-Gaming, A-Serie vornehmlich als Work dank Treiber und Hopper vornehmlich als Datenzentrum vermarktet und bepreist. Auch für Geforce kann man zwischen Gaming- und Studiotreibern wählen.
Posted by JKM
 - November 16, 2022, 13:12:14
Was ist daran falsch?
Ich spreche von Gaming-Karten und nicht von Profi & Workations-Karten.
Posted by RobertJasiek
 - November 16, 2022, 12:43:48
"Eine Gaming-Karte hat nur den Sinn des Unterhaltungs-Zweck. "

Das weißt du besser als falsch so.
Posted by JKM
 - November 16, 2022, 11:39:41
Straft Nvidia ab und kauft gar nichts oder AMD!

Scheinbar hat bei dir das Great Awakening und Great Reckoning begonnen.

Wir Endverbraucher sind keine Melkkühe.

Oh doch, und das wurde noch mit Druck befürwortet. Nur haben es die Melkkühe nie gemerkt.

Nvidia (wie Intel) hat schon immer abgezogt. Deswegen haben beide Firmen in den letzten 20 Jahren sogar versucht mit illegalen Marktmethoden die AMD_Konkrrenz uneinholbar abzudrängen, als Intel und Nvidia vorne lagen sowie ihre Marktmacht ausnutzen. Nur durch den Preiskruck von AMD waren die Preise niedrig. Damit hat AMD aber vor 10 Jahren aufgehört und seit 10 Jahren die Preise gesteigert. Scheinbar hat AMD damit mit diesem Jahr aufgehört, weil die Abzocker-Schwelle erreicht wurde.

Wie Geldgierig Nvidia ist, hat sich jetzt durch den BitCoining-Markteinbruch gezeigt. Denn da bekam Nvidia einen Umsatz-Einbruch von 3,5 auf vorerst ~1,0 Mrd. $, was zeigt, wie extrem Nvidia versuchte diesen Markt melkte. Dafür brachten sie die Ti-Karten mit +50-100% Preissteigerung am Markt, welche offenbar fast nur mehr produzierten. Scheinbar galubt Nvidia jetzt, dass sie so weitermachen können. Das hat mich selbst überrascht. Aber kann man es ihnen verübeln? Nvidia macht das schon seit 15 Jahren so, und bisher war es für Nvidia die reinste Erfolgstory. Bis 2015 noch mit illegalen Methoden und danach hat AMDs Preissteigerungen schon so eine höhe, dass Nvidia ebenfalls die High-End-Preise deutlich steigern konnte.

Wer es noch nicht verstanden hat, der lässt sich halt melken.
Ich persönlich setze länger primär sogar auf iGPUs.

Mit AMD gibt es im Grafikkarten-Markt immerhin eine Alternative.
Wobei diese Alternative meiner Meinung auch im Grafikakrten-Markt ab RDNA3 zum absoluten Konkurrenten montierte. Sowas wie Zen2 (Chiplet) und Zen4 (AVX-512 mit VNNI-Deep-Learning) in einem. Denn mit Dual-Issue (Int/FPU und FPU) konnte AMD seine FP-Shaders verdoppeln, wie es Nvidia AFAIK schon länger hat. Dazu hat AMD mit dezidierten AI-Einheiten und 2. Gen Raytracing-Unit einen guten Schritt in die neue Gaming-Ära gemacht. Mit Chiplet will AMD die Kosten deutlich reduzieren, um höchste Profite & Margen auch bei "moderaten" Grafikkarten-Preisen zu erreichen. Der Memory-Controller und de Infinity-Cache kann mit 5nm kaum skaliert werden, weshalb diese auf das günstigere 6nm auslagert wurde.

Gerade mit der Chiplet-Technologie kann AMD mit moderaten Preisen einen Marktanteils-Konkurrenz-Kampf anführen, was früher oder später vielleicht zu einem Preiskrieg führt. Technologie hat AMD mit RDNA3 meiner Meinung keinen relevanten Grafik-Qualitäts-Nachteil mehr.

Ein neues iPhone kostet fast halt genauso viel.
Ein iPhone ist im Alltag viel mehr integriert bzw. für viele im Alltagsleben ein wesentlicher Bestandteil. Eine Gaming-Karte hat nur den Sinn des Unterhaltungs-Zweck.

Bei Corona dreht sich das, als mit Lockdown & Maßnahmen der Alltag außerhalb des Hauses oder Landes völlig eingeschränkt war und man viel Unterhaltung im Haus brauchte. Deswegen habe ich mir mein S21 oder S22 gekauft. Dazu kam, dass durch die Alltagsbeschränkung viele auch kein Geld im Urlaub oder beim Alltag ausgeben konnten, sodass sie das überteuer kaufen konnten, was sie Zuhause viel zur Unterhaltung nutzen konnten a la Grafikkarten oder Peleton-Ergometer (Fitness + Unterhaltung mit Community-Kommuniktion).

Nvidia will Post-Corona noch die Corona-Preis-Welle reiten.
Posted by ghrcu
 - November 16, 2022, 10:31:44
Preis ist völlig in Ordnung. Gaming ist sowieso kein Hobby für Arme. Ein neues iPhone kostet fast halt genauso viel.