News:

Willkommen im Notebookcheck.com Forum! Hier können sie über alle unsere Artikel und allgemein über Notebook relevante Dinge disuktieren. Viel Spass!

Main Menu

Pipelines bei Geforce 8600M GT und ATI Mobility Radeon HD 2600 XT

Started by rgruber, June 21, 2007, 16:03:45

Previous topic - Next topic

rgruber

Ich bin etwas verwirrt. Man liest immer (auch hier bei notebookcheck) dass die ATI Mobility Radeon HD 2600 XT der direkte Konkurrent der Geforce 8600M GT sei.

Wenn man sich die Angaben auf den Herstellerseiten so ansieht, frage ich mich allerdings wie man die beiden Karten vergleichen kann. Die 8600M hat 32 Stream Processors und die 2600 XT hat laut ATI Homepage 120 stream processing units.

Müsste die 2600XT dann nicht 3 bis 4 mal mehr Operationen in der gleichen Zeit durchführen können?
Natürlich spielt der Takt noch eine große Rolle (darüber hab ich auf der ATI Homepage leider nichts finden können), aber ich kann mir nicht vorstellen das es da allzugroße Unterschiede gibt.

Kann mir jemand erklären wiso die ATI Graka mit soooo viel mehr Recheneinheiten trotzdem nicht schneller als ihr Gegenspieler von NVidia ist?

Besten Danke,
LG, Robert

Kevin

Hi

Erklären kann auch ich dir das nicht, da ich kein ingeneur bin.

Das hab ich mich auch schon gefragt.
Aufgrund deiner überlegungen, dich ich soweit auch mit dir teile, würde es dir weiterhelfen, wenn du dich einfach von den gedanken trennen könntest, dass die ATI Mobility Radeon HD 2600 XT der gegegenspieler der Geforce 8600M GT sei.
Dass beide die "6" in ihrer typenbezeichnung tragen und beide mittelklassen grafikkarten sind, heißt ja noch lange nicht, dass diese auch der direkte kontrahent der nvida 8600M GT sei.

Die ATI Mobility Radeon HD 2600 XT wird wohl vielmehr gegenspieler der 8700M GT werden, letztere ringt wiederrum mit 7950gtx.
Mal schauen, welche karte den längerem atem hält.

Ja, soweit.
mfg
Kevin

rgruber

Quote from: Kevin on June 21, 2007, 20:45:43
Aufgrund deiner überlegungen, dich ich soweit auch mit dir teile, würde es dir weiterhelfen, wenn du dich einfach von den gedanken trennen könntest, dass die ATI Mobility Radeon HD 2600 XT der gegegenspieler der Geforce 8600M GT sei.
Dass beide die "6" in ihrer typenbezeichnung tragen und beide mittelklassen grafikkarten sind, heißt ja noch lange nicht, dass diese auch der direkte kontrahent der nvida 8600M GT sei.

Die ATI Mobility Radeon HD 2600 XT wird wohl vielmehr gegenspieler der 8700M GT werden, letztere ringt wiederrum mit 7950gtx.

Das das Ganze mit der "6" im Namen nichts zu tun hat ist schon klar. Naja, das mit den Konkurrenten hab' ja nicht ich mir ausgedacht. Da liest man eigentlich überall so.

Ob die 8700M GT in Sachen Leistung die 7950gtx schlagen kann bezweifle ich stark. Immerhin ist sie "nur" eine etwas übertaktete 8600M GT ohne zusätzliche Rechenwerke. Die 8600M GT soll laut Berichten ja so ca. 4000 3DMark06 Punkte (bei manchen User-Berichten sogar etwas mehr) zusammenbringen. Da würden zur 7950GTX noch ca. 1000 Punkte fehlen. Ich kann mir nicht vorstellen, das nur durch ein wenig übertakten die Karte um 25% schneller wird, oder?

LG, Robert


Unfug

Die 8700M GT ist die Konkurrenz zu 7950GTX weil sie "Ungefähr" gleiche theoretische Daten hat.
Die 7950GTX ist noch "theoretisch" besser, aber dafür hat die 8700M GT eine neue Struktur. Allein die StreamProcessoren werden so einiges ausmachen. Die Grafikkarte ist nicht mehr an feste Shadereinheiten gebunden, sondern kann sich den Shader so zurechtlegen , wie sie in grad benötigt. Auch hat sie einen neuen Gemoetryshader (der viel in Sachen Schatten berechnen wird, ab DX10) und somit dann der 7950GTX überlegen ist.
Die 7950GTX wird in DX10 ein ArmiWagen mit viel Power sein, aber die Effizenz lässt halt entsprechend nach. Da kommt eine kleinere Karte die auf DX10 optimiert wurde besser weg (Porsche).
Es ist also so, daß die 7905GTX die 8700M GT mit Sicherheit in DX9 noch übertreffen wird, in DX10 es aber andersrum aussehen wird.

Und wenn Du recht hast und die HD 2600 XT hat wirklich 120 StreamProcessoren, dann wird die nur über die 8700M GT lachen. Weil wie Du schon richtig erkannt hast, machen StreamProcessoren so einiges aus. Ich denke nicht, daß der Erfinder von GDDR3 und GDDR4 seiner Grafikkarte GDDR(2) verpassen wird und einen 64Bit Speicherbandbreite :-D
Dann ist die HD 2600 XT eher die Konkurrenz zur im November erscheinenden 8800.



Kevin

Hi

QuoteDie 8600M GT soll laut Berichten ja so ca. 4000 3DMark06 Punkte (bei manchen User-Berichten sogar etwas mehr) zusammenbringen. Da würden zur 7950GTX noch ca. 1000 Punkte fehlen. Ich kann mir nicht vorstellen, das nur durch ein wenig übertakten die Karte um 25% schneller wird, oder?

Diese besagten 1000 punkte holt die 8700M gt locker wieder rein. Was sind schon 1000 punkte für solch eine dx 10 karte, in 3d mark 06.....
Zudem ist m.E. die 8700nicht übertaktet (und schon gar nicht ein wenig) sondern die 8600M GT ist schlicht weg völlig untertaktet.
Die 8700M GT hat m.E. für diesen chip genau die richtigen leistungswerte mitbekommen und wenn die ersten notebooks auf den markt sind, werde ich posten, was ich da noch an reserven rausholen konnte.

Die 8700M GT hat im gegensatz zur 8600M GT 150mhz mehr gpu clock, 100mhz mehr speicher clock und zu guter letzt eine um 300mhz höhere shader-takt-frequenz. Also jeder der 32 shader einheiten, taktet um 300mhz höher  :o !!
Damit wackelt der thron der 7950gtx gewaltigt, wenn er nicht zerbricht.

Dass die hd2600xt nur auf grund von angeblichen 120stream prozzis ohne dass irgendwelche weiteren daten bekannt sind, (speicheranbindung, gpu/speichertakt) die 8700M GT locker übertreffen soll, halte ich für eine sehr mutige weisheit.

Die hd2600xt ist für mich genau so eine papierschwalbe wie die HD 2900XT, die mit pauken und trompeten gegen die 8800gtx unterliegt. Man hat im vorfeld ja die tollsten geschichten drüber gehört...

Ja, soweit
mfg
Kevin

Eddie

nVidia und ATI gehen bei ihren DX10 Karten unterschiedliche Wege in der Architektur. nVidia setzt auf hohen Takt, ATI auf Parallelisierung. Bei ATI laufen die Shader mit GPU-Takt, und daher um einiges langsamer als bei nVidia. Die resultierende Rechenleistung ist aber auf etwa gleichem Niveau.

Eine genauere Auflistung der einzelnen Chips mit Rechenleistung und Speicherbandbreite findet man hier:
w-ww.3dcenter.org/artikel/2007/06-06_a.php

Die 8700 ist tatsächlich nur eine Übertaktete 8600. Die angekündigten Notebooks sind alles 17", was auf eine hohe Wattzahl/Wärme der 8700 schliessen lässt - also genau das, was einen übertakteten Chip ausmacht. Die 8700 hat etwa 30% mehr Chiptakt (ja, der Shadertakt ist auch nur 30% höher) und 14% mehr Speichertakt. Das wird so etwa 20% mehr Leistung gegenüber der 8600 bedeuten. Der Speichertakt ist hier entscheidend, das ist der Flaschenhals der 8600/8700.
Gerade in hohen Auflösungen und zugeschaltetem AA wird die 8700 niemals an eine 7950 herankommen. Die 8700 hat immer noch etwa nur die halbe(!) Speicherbandbreiter der 7950.

Die HD2600 wird eine interessante Karte. Vor allem was den Stromverbrauch angeht. Ich wage mal zu behaupten, die HD2600 wird die leistungsfähigste Karte sein, die demnächst in 15" Notebooks verbaut wird.


Eddie

Wollte noch hinzufügen: zur HD2600 sind durchaus genauere Informationen verfügbar
120 Shader, 8 TMU's, 128 bit Speicheranbindung, 700 MHz Chiptakt, 750 MHz Speichertakt (HD2600 XT)

dhsalamipizza

Hallo,
habe mal bei Cyber-System nachgefragt was die Geforce 8700m GT so für 3D Mark Punkte erreicht
und habe als Antowort erhalten:

3D-Mark06 Wert mit einer T7300 CPU mit 2GB Ram: 5.210 Punkten

Das ist glaub ich noch etwas weniger als eine 7950go hat.

MFG

Eddie

Dann wird die HD2600XT wohl schneller sein. Erste Benches sagen so um die 5.800 Punkte im 3D-Mark06.

Samis

Quote from: Eddie on June 28, 2007, 09:58:26
Dann wird die HD2600XT wohl schneller sein. Erste Benches sagen so um die 5.800 Punkte im 3D-Mark06.

Link? Wie ist war die Konfig?
AMD FX-9590 5 GHz Gainward GTX1070 Ti
Acer Nitro VN7-591G Black Edition 15.60"
̶c̶̶o̶̶r̶̶e̶̶ ̶̶i̶̶7̶̶ ̶̶9̶̶2̶̶0̶̶ ̶@̶ ̶̶2̶̶,̶̶8̶̶ ̶̶g̶̶h̶̶z̶̶ ̶̶a̶̶t̶̶i̶̶ ̶̶h̶̶d̶̶5̶̶8̶̶7̶̶0̶  tot ::)
x̶̶p̶̶s̶̶ ̶̶1̶̶7̶̶3̶̶0̶̶ ̶t̶̶9̶̶3̶̶0̶̶0̶̶ ̶̶d̶̶u̶̶a̶̶l̶̶ ̶̶g̶̶f̶̶9̶̶8̶̶0̶̶0̶̶m̶̶ ̶̶g̶̶t̶̶x̶  tot ::)

Blumm

Ist die HD2600XT eigentlich für 15" oder eher 17" geplant?
Und wann gibt es endlich mal wieder News über das Gerät ^^ ist echt sau still geworden :)

* Hoffentlich ist es die Ruhe vor dem Sturm :)

Eddie

Ich dachte es wäre bei einem Test dieses 20" compaq Books dabei gestanden. Jetzt hab ich mal nachgeschaut und es waren doch nur enttäuschende 4.200 Punkte. Hab mich wohl falsch erinnert.

Nachdem jetzt die desktop HD2600 offiziell vorgestellt worden sind und Reviews im Netz sind, zeigt sich das der HD2600 eher eine Enttäuschung ist (Leisungsmässig). Das allgemeine Fazit ist das es keinen Mittelklasse Chip gibt (weder 8600 noch HD2600) der genug Leistung hätte um DX10 Spiele zu schaffen. Sieht irgendwie düster aus für DX10 Gamingbooks...

Raygin

Naja, das kommt immer darauf an, was man will...

Leistungmäßig sind halt bei nbs abstriche zu machen, ich bin auch zufrieden wenn ich crysis oder whatever mit nur mäßigen details auf nem notebook spielen kann.

und wer bereit ist, 17" oder noch mehr durch die gegend zu "wuchten" der bekommt sicher auch für notebooks Grafikkarten, die da in naher zukunft genug Leistung haben...einfach noch ein paar monate warten

Klaus Hinum

Der grosse Unterschied an der Anzahl der Stream Prozessoren, soll übrigens daher kommen, dass die Prozessoren bei ATI zusammengerechnet werden müssen (also kann nicht einer bei ATI soviel wie einer bei NVIDIA). Aber warten wir mal ab, bis wirklich Serienmodelle der ATI Karte kommen (bis jetzt ist ja noch nichts aufgetaucht, ausser dieses HP 20" Review mit einem Vorseriengerät).
Wurde Dir von einem in unserem Forum oder durch Notebookcheck geholfen? Dann verfass doch einen User Testbericht über dein Notebook und gib damit etwas an die Community zurück!

Revelation

Sagen wir mal so, die ATI-2900XT kann mehr. Er unterstützt (auch die 2600) volles HD Decoding.
sprich man kann auch auf etwas schwächeren CPUs HD Videos ruckelfrei anschauen.

Die Gerüchte das die Shadereinheiten bei ATI nicht vollständig sind stimmt nicht.
Der Aufbau der ALUs und superskaleren Einheiten unterscheidet sich. Nvidia fasst 1 Addierer+2
Multiplizierer zu einer ALU-Einheit zussamen, ATI 1+1 und jede 5-te kann auch noch z.B. Quadratwurzel Sinus und Logarithmus. Wobei jede ALU als Shaderprozeesor zu verstehen ist.

ATI 5-er Gruppen* 16= 1 SIMD, 4 SIMD-Einheiten = 320 Streamline Prozessoren.
NVidia 16 ALUs = 1 SIMD, 8 SIMD Einheiten = 128 Streamline Prozessoren.

Die Steuerlogik bei NVidia ist komplizierter, da die (schnellen) skalaren Einheiten durch den
unterschiedlichen Takt arbeiten. Da sind die superskalaren von ATI zwar langsamer aber brauchen
nur 64 Threads (Thread normalerweise = Pixel) um de Karte zu 100% auszulasten. NVidia braucht da viel mehr Threads vorrätig. Dafür müssen die Treiber von AMD (da eingsparter Transistoren bei der Steuerlogik) diesen Vorteil halten. Der Treiber muss die Parallelitäten erkennen.

Nvidia hat zwar auch 32(8*4)spezielle Einheiten für zB. sinus..., aber diese arbeiten deutlich langsamer
wegen niedigerem Takt. Bei ATI sind es 64 und diese laufen mit Shadertakt und tragen daher mehr zur Leistung bei als die von NVidia.

ATI stattet seine 2900 XT mit 16 Textureinheiten aus (16 gefilterte Werte+ 16 ungefilterte = 32).
NVidia 32 Einheiten für gefilterte Werte. Diese sind hoch optimiert und können daher gegenüber ATI
ihre Vorteile in DX9 Spielen of auspielen (Hauptsächlicher Grund für Vorsprung).

Die zweite Multiplizierer Einheit bie Nivida muss sich leider aber auch um Standardaufgaben kpmmern, und
steht dem Shader nicht voll zu verfügung.

Für die Zukunft ist die ATI--Karte viel besser gerüstet. Texturen werden zunehemnd prozedural (ALUs erstellen die Effekte) sein. Zusätzlich unterstützt ATI noch Tesselation (NVidia nicht). Das bedeutet, dass niedrig-Polygon Modelle durch rechen Operationen verfeinert werden (Spezifikation DX 10.1),
NVidia kann dass nur mit dem Geometry-Shader erledigen. Dieser ist deutlich langsamer als
eine dedizierte Hardwareeinheit.

Klares Manko ist der zu laute Referenzlüfter von ATI bzw. der hohe Stromverbrauch. Ist aber bei
320 Prozessoren irgendwie klar. Bei den CPUs steigt auch der Stromverbrauch mit zunehmender
Transistorzahl. Solange der Just-in-time compiler im Treiber gut funktioniert wird die Leistung vom
ATI-Chip "besser" sein. Aber diese Treiber konnte ATI noch nicht liefern.

Quick Reply

Warning: this topic has not been posted in for at least 120 days.
Unless you're sure you want to reply, please consider starting a new topic.

Name:
Email:
Verification:
Please leave this box empty:

Shortcuts: ALT+S post or ALT+P preview