News:

Willkommen im Notebookcheck.com Forum! Hier können sie über alle unsere Artikel und allgemein über Notebook relevante Dinge disuktieren. Viel Spass!

Main Menu

Post reply

The message has the following error or errors that must be corrected before continuing:
Warning: this topic has not been posted in for at least 120 days.
Unless you're sure you want to reply, please consider starting a new topic.
Other options
Verification:
Please leave this box empty:

Shortcuts: ALT+S post or ALT+P preview

Topic summary

Posted by Crysis Fan
 - April 23, 2009, 14:26:05
Im Test zu Notebookjournal kam raus, das eine HD 4850 schon mit der GTX280M mithält und Sie glauben das eine HD 4870 (egal ob 512 oder 1024 MB) locker die GPU in die schranken weist. Weil schon mit einem schlechten Treiber die HD 4850 gut ist und die HD 4870 min 10-20% schneller ist und somit wirklich die schnellste Single GPU ist.

Ich hoffe ihr fragt bei ASUS nach einem Test Model und Testst auch nur eine HD 4870 (nicht so wie mit 3870 X2 wo ihr es nicht gemacht habt) und damit könnt ihr ja entlich die Benchmark Liste ATI freundlicher machen und selber einsehen das Nvidia nicht das A und O ist.
Posted by Crysis Fan
 - March 18, 2009, 15:16:00
Die schönen Zeiten kommen nicht mehr so schnell wieder, da Nvidia merkt das es alle Kaufen egal ob es gut oder schlecht ist, AMD macht es jetzt auch, die HD 4860 und HD 4830 sind im Dektop die HD 4700 Serie (RV740 statt RV770) es ist nicht ganz so schlimm wie bei Nvidia denn sie nennen die GPU ja nicht HD 5870 und verlangen für die Selbe Leistung mehr. Nicht desto trotz ist es nicht richtig. Und die wenn Microsoft nicht für DX10 die neue Architektur verlangt hätte gebe es ? ne 7950 GTX in neuauflage:
andere sorte 8800 GTX (Pixel Vertex Shader Form)

48 Pixel und 16 Vertex Shader
48 TMU und TAU
24 ROP
256 Bit mit GDDR4

Das wäre Toll, aber die jetztige DX10 oder DX11 Technik ist auch gut nur verbrauchen zu viel (HD 4870 Mobil mit 65 Watt zu viel)
Posted by Slasher
 - March 09, 2009, 18:19:36
Winkelman hat fast recht es ist in ordnung das ein Kern 2 mal verwendet wird (wenn es sich loht), aber nicht wenn eine GPU 8800M GTX heist und nur so stark ist wie eine 8800 GTS 320 oder 8800 GS (g92) und auch 9800M GT und auch nur ne 9600 GSO (8800 GS) ist das gleiche mit der 9800M GTX die nur ne 9800 GT mit extrem niedrigen Takt. Das gab es bei der GF 7 Serie nicht, den die 7800 GTX war keine 7800 GS (mit weniger recheneinheiten) sondern nur niedriger Getaktet.
Das die GTX 28X nie ins Notebook wird weis ich, aber eine 8800 GTS (512M also G92 Version) den namen zu verpassen ist eine kleine Frechheit, Sie hättenb die ja GTS 180M oder 9800M GTX+ nennen können oder wie jetzt die neue GTS 250, aber nicht GTX 280M.
ATI schafft es auch einen neuen, aber ählichen Kern raus zu bringen (RV770 ist dem RV790 ähnlich aber anders) und net den selben blödsinn wie Nvidia zu veranstalten. Da wo die 7950 GT (Desktop) da war fand ich war alles in Butter, die Notebook Version war fast identisch und das in allem.
Jeder beschwert sich über ATI, aber sie schafften es den RV770 ins Book zu bringen und das ist schon ne Leistung, ich dachte ATI Fan (im September) würde er nur reden und wenig wissen, ich gebe zu das ich überrascht bin einen Mobilen HD 4870 Chip zu sehen. Und der erste Test zur HD 4850 ist da hier der Link:

notebookjournal.de/tests/msi-gt725-ati-radeon-hd4850-835

über 9700 Punkte mit einem C2D P9500 bei 1280 x 1024, ist also wirklich besser als eine 9800M GTX zumindestens im Bench, was ja nix wirklich mit spielen zu tun hat.
Posted by sb28
 - March 07, 2009, 16:29:19
Quote from: Slasher on March 06, 2009, 20:39:24
DX9 karten wie die 7950 GTX ist nicht schlecht aber schon veraltet (STARK VERALTET) und daher nehme ich lieber eine 8800M, 9800M und 9700M GTS (oder HD 3850, HD 3870, HD 4830 bis HD 4860 nicht die HD 4870 zu viel Verbrauch).

Klar nimmst du heute keine 7er Karte mehr, das hab ich ja auch nicht sagen wollen, was ich im Prinzip geschrieben hab ist, dass dieses "veraltet" von deiner 98er 280er oder 48er Serie in 2 Jahren auch behauptet wird, deren Leistung dann gerade noch so reicht usw....
Bis dahin hast damit schon was echt gutes, aber dann ist da wieder Schluss und dafür ist das schon ein ordentlich teurer Spaß. Mit nem Dekstop kannst du dir in der Zeit zwei PCs kaufen die jeweils die gleiche oder mehr Leistung haben...

Und STARK veraltet ist eine Karte auf der GTA IV im Notebook zum Laufen zu bekommen ist sicherlich nicht, also das zu behaupten finde ich dann doch übertrieben, alt ist meine 7950, kein Thema, aber nicht stark veraltet ;)!

Stark veraltete Karten sehen anders aus! (ich hätt hier ne GeForce 2 MX zu verkaufen, will die wer?
4MB RAM oder so wird se schon haben tipp ich mal  :D)

Wenn das mit diesem ganzen MXM noch besser umgesetzt wäre, könnt ich mir ja jetzt auh ne GTX 280M holen die einbaun und ... das wäre nicht das Problem, aber leider geht's dann doch ned so schön wie man sich wünscht....
Posted by Tobias Winkler
 - March 07, 2009, 09:02:27
Wenn Euch 30-60% Mehrleistung einer 9600GT im Vergleich zu einer 8600GT nicht genug sind, dann haben die Grafikkartenhersteller wirklich nicht ihre Aufgaben gemacht.
Habt Ihr euch mal angesehen wie sich die Notebookpreise in den letzten Jahren nach unten hin verändert haben ? Wenn die Leute nicht mehr bereit sind 1500,- Euro für ein (Einsteiger-) Spielenotebook zu bezahlen, dann wird halt ein paar Jahre lang der vorhandene Grafikchip optimiert (und das machen die Chiphersteller meiner Meinung nach genau richtig). Es ist ja auch nicht so als würden sich alle die das hier ankreiden jedes Jahr ein neues (Spiele-) Notebook kaufen. Die die jetzt von einer 8600GT auf eine GT 130M oder von einer HD2600 auf eine HD4650/4670 umsteigen, werden den Unterschied schon spüren. Alles andere ist doch an der Realität vorbeigeredet. Würde man jedes Jahr eine komplette Neuentwicklung starten, dann gäbe es Nvidia und ATI bald nicht mehr. Die meisten Notebooks werden halt immer noch mit Chipsatzgrafik verkauft,...was ja auch seine Gründe hat.

Abgesehen davon werden Gamer-Notebooks niemals an die Leistungsfähigkeit von entsprechenden Desktopsystemen herankommen. Mal ganz zu Schweigen vom horrenden Preisunterschied.

Dass Dell Notebooks mit 8600GT solange, und nun mit für Spiele recht schwachen GPU`s verkauft, (gehe mal davon aus Du hast an die XPS-Modelle gedacht) könnte vielleicht auch an der Positionierung der Produkte liegen, die Dell gar nicht als Spielebooks sieht. Und für alles andere sind die Kisten vollkommen ausreichend, wenn nicht sogar überdimensioniert ausgestattet.
Posted by Käfermicha
 - March 07, 2009, 00:18:28
@tash: Warum Lynchen, Du hast doch völlig Recht.

Tatsache ist, dass die Notebook-Grafikleistung seit 2 Jahren völlig auf der Stelle steht, oder warum könnte Dell sonst noch ungestraft die 8600M GT anbieten, bzw. noch langsamere ATI Karten in aktuellen Mittelklasse-NBs anbieten. Vor einigen Jahren waren NBs völlig spieletauglich, jedenfalls aber nur wenig langsamer als Desktop-PCs. Seit mittlerweile 2-3 Jahren geht die Schere wieder derart außeinander, dass man aktuelle Spiele auf fast keinem NB mehr spielen kann...

Der Grund ist völlig klar, der Stromverbrauch aktueller Desktop-Grafikkarten ist eine Katastrophe. Dass man das für ein NB nicht einbauen kann verstehe ich ja, aber die Lösung kann dann m.E. nur lauten, zu versuchen, auch im Desktop-Bereich sparsamere Grafikkarten mit vernünftiger Leistung zu entwickeln.

Jedenfalls muss es doch möglich sein, dass man wieder vernünftige Mittelklasse-Grafikkarten gebaut bekommt... Bisschen weniger umbenennungen und mehr Entwicklung wäre nicht schlecht, auch wenn man physikalische Grenzen natürlich nicht aufheben kann...
Posted by tash
 - March 06, 2009, 22:43:26
@Slasher

Doch die GPUs sind schlecht. Weil halt niemand das Ganze hinterfragt. Trotz neuer und angeblich besserer Fertigungstechnologien (vorallem im Hause nVidia bzw. bei Ihren Auftragsfertiger) schafft man es weder den Strom zu senken, noch zu behalten, sonder man steigert Ihn ganz einfach mal um minimal 66%.  M I N I M A L 66%!? Bewirbt das ganze noch in einen schönen Gesamtpaket und das mittlerweile beim dritten Nachfolger.

Ich bin gerne bereit für Fortschritt zu bezahlen und da auch gerne mehr aber halt wie gesagt für Fortschritt und nicht Rückschritt. In Zeiten von Pseudo Green-IT ist das einfach nur lächerlich. Auch wenn ich nur ungern Äpfel mit Birnen vergleich aber Intel hat es zumindest bei deutlich gesteigerter Performance geschafft den Stromverbrauch sogar noch zu senken. Das ist Fortschritt und das ist nicht schlecht. Aber die neuen GPUs sind schlecht in diesem Punkt!

Das ist genau das gleiche wie bei der letzten Mehrwertsteuererhöhung wo auch kaum jemand anscheinend sein Hirn auf "On" oder zumindest "Standby" hatte. Einige wenige mögen sich errinnern ... MfG

SPD: 1.Aussage: "Wie senken die MwSt. bzw. die MwSt. muss runter." ; 2. Aussage "Wir werden die Mwst. definitiv nicht erhöhen."
CDU: Aussage: "Wir müssen die MwSt. um max. 2% erhöhen."
Koalition bestehend aus SPD+CDU: Erhöht die Steuer erstmal um 3%. Man denke an Ihre versprechen.

Die Medien daraufhin: "Fr. Merkel mit samt Koalition schlagen sich besser als erwartet." oO
Was haben die erwartet? Bzw. was für eine Kampange haben die Medien verfolgt?  Volltrunken?

Nun lüncht mich endlich... :x
Posted by franzerich
 - March 06, 2009, 22:03:44
Quote from: Slasher on March 06, 2009, 20:39:24BITTE SCHNELL Tests damit sie überzeugt sind und alle ruhig.

Genau! Die Tests können gar nicht schnell genug kommen! Immer her damit, am besten im Sekundentakt!  >:D
Bitter finde ich allerdings auch den Namen gtx 280m, das ist einfach nur falsch, es ist eine Schande. Sowas sollte verboten werden.
Posted by Slasher
 - March 06, 2009, 20:39:24
Ist doch alles in ordnung, auch wenn ich nicht so viel über Technik weis, bin ich überzeugt das die jetzigen GPUs nicht schlecht sind. Die jetztigen Karten haben auch eine andere Art der Technik (ein Shader der alles kann Pixel, Geometrie, Vertex und Comput Shader) und auch die Leistung ist besser und das sieht man in DX10 Games und Stormrise ist das erste only DX10 Game und das DX10.1 im ganzen nutzt. DX9 karten wie die 7950 GTX ist nicht schlecht aber schon veraltet (STARK VERALTET) und daher nehme ich lieber eine 8800M, 9800M und 9700M GTS (oder HD 3850, HD 3870, HD 4830 bis HD 4860 nicht die HD 4870 zu viel Verbrauch). Übertreibt nicht gleich, den mehr Takt und mehr Transistoren und höher Leistung ist nicht so leicht zu Portieren.

PS die GTX 280M ist gut, auch wenn sie ihrem Namen nicht ganz gerecht wird, HD 4870 ist auch gut und ihrem Namen gerecht, was egal ist den FPS zählen und wir warten auf Tests. BITTE SCHNELL Tests damit sie überzeugt sind und alle ruhig.
Posted by sb28
 - March 06, 2009, 20:13:51
Auch hier bei mir:
ne fast 3 Jahre alte 7950GTX hat 256bit (und 512MB Speicher), das wird jetzt bei aktuellen teils als "neu" angepriesen...
Meine Grafikkarte hält zwar in Sachen Stromverbrauch nicht mit ner GS mit, für meinen Einsatzzweck ist sie aber die richtige.... Spielen kann ich damit auch noch ALLES, zumindest irgendwie die meisten Spiele die ich hab bis "early'08", seitdem hab ich nicht mehr viel gekauft in absoluten maximum-Details...

Und nun aber zu den neuen:
-> Die Leistung der neuen Karten beeindruckt mich schon auch, das sind schon Benchmarkwerte, wow!
Ein weiteres Beispiel sind Karten die GTA IV schön langsam immer besser zum Laufen bekommen, in immer mehr Details, das enttäuscht auf meiner Karte dann doch und läuft nur noch gerade so....
Die technischen Neuerungen sind allerdings schon wirklich ein wenig zu Hinterfragen, nett dass es mal jemand ausspricht. Der Stromverbrauch geht in die Höhe oder zumindest nicht runter, das ist wirklich ein Aspekt der überhaupt nicht zu interessieren scheint, dabei wäre es für Notebooks durchaus von Vorteil...
Mein Spielelaptop läuft gerademal 2h wenns hochkommt und er nur für Office genutzt wird. Beim Zocken gehten 45min auf Akku....
-> Ich glaube ja hierbei handelt es sich halt wirklich um ein Grafikkartensegment bei dem ausschließlich Benchmarkwerte zählen, Hauptsache die passen und zugegeben, die sind ja schon auch beeindruckend!

Noch beeindruckender find ich persönlich aber, was sich momentan auf dem Segment der Grafikchips regt, die 9400M wie ich sie in meinem MacBook hab ist ja echt ein klasse Grafik-Chip, da hab ich niemals soviel erwartet und bin sehr erfreut, die Akkulaufzeit leidet darunter bestimmt nicht, der kommt dann doch mit "etwas" weniger als 45 Watt aus ;D ;D

Aber ganz ehrlich, solche Grafikkarten braucht es ja auch, wenn man wirklich Zocken will, dann braucht man echt einfach nur Leistung, da wird jeder Gamer über ne 7900GS wie du sie hast mittlerweile lächeln, obwohl die ja wirklich echt gut war und ist. Ne 7950GTX wie ich sie hab war einmal der Traum eines jeden, mittlerweile wird die hier auf der Webseite als "ALT" ausgegraut und man sieht ja schon auch, nach knapp 3 Jahren machen die Anforderungen wieder nen Sprung nach oben und lassen die Hardware auch wirklich "alt" aussehen... Über 2 Jahre hinweg aber alles in Max-Details zocken zu können ist schon auch ne schöne Sache, so wird's mit jeder Grafikkarte inklusive der GTX 280M hier laufen... Wem der Spaß dafür nicht zu teuer ist, der darf gerne zugreifen und hat erstmal ne tolle
Hardware... in 2 bis 3 Jahren darf er dann meinen Artikel kopieren und die Grafikkartennnamen austauschen ;-)

Nach 2 -3 Jahren ist der Laptop dann aber immer noch für mehr geeignet als ein neuer im Preissegment bis 800 Euro  ;) und zum wirklich alten Eisen sollte er noch lange nicht gehören... (Bisher läuft noch kein Spiel so gar nicht auf meim Lappy und wenn denn mal erste Spiele nichtmehr laufen läuft auch noch alles andere einwandfrei...)
Und um nun nochmal auf die Neuerungen zurückzukommen: Neue Grafikkarten verbrauchen dann immer noch soviel Strom (oder mehr), haben wieder doppelt so viele Benchmarkpunkte und halten wieder ihre ca. 3 Jahre voll mit... Nur aufm CPU-Markt hat sich bis dahin halt wirklich was getan und mehr Leistung braucht nurmehr 2/3 des Stroms...

Als kleine Ergänzung an "tash"s Post gedacht und mal meine Beobachtungen über die "High-End-Karten",
zu denen meine auf jeden Fall gehört hat(te), das kann wirklich keiner abstreiten!
Posted by tash
 - March 06, 2009, 00:03:19
Ich finde es seit geraumer Zeit fast schon lächerlich was ATI/nVidia da auf den Markt bringen.
Was ist los mit den Herstellern? Wen wollen Sie hier für Dumm verkaufen?

Eine 3 Jahre alte GF Go 7900GS:
20Watt, DirectX 9c, Shader 3.0, 90nm

Aktuelle Grafikkarten dieses Segments liegen bei:
35-45Watt, DirectX10, Shader 4.1, 40 - 65nm

Was soll das bitte ? Ok neue Technologien intergriert, aber auch das fast nur, durch doppelten Stromverbrauch und halbierter
Fertigungstechnologie. Das ist einfach kein Fortschritt, erst recht nicht, wenn man sich den Stromverbrauch ansieht.
Würde am liebste den G71M in neuer Ausführung bei neuer Fertigungstechnologie sehen. Glaube kaum, das Er, bis auf die fehlende
technischen Neuerungen schlechter wäre. Sorry, aber als gelernter Mikrotechnologe und einstiger Mitarbeiter von Infineon & Qimonda sind diese techn. Neuerungen für mich ein Rätsel.

Ich bin wirklich jemand der gern neues Kauft, aber seit fast 3 Jahren lohnt es sich einfach nicht. Alle 4-6Monate suche ich erneut und komme zum gleichen Ergebnis. Meine alte Mühle findet keinen würdigen Ersatz. Entweder zu wenig Mehrleistung o. viel zu hoher Stromverbrauch. Kein Kompromiss...

PS: Zudem ist es noch immer ein Rätsel ob nicht die neuen Karten gar noch mehr Strom verballern. Denn alle neuen Karten ab 8800MGTS aufwärts brauchen 50 - 75 Watt. Lächerlich...

Ein hoch auf den G71M aka 20Watt ZauberZufallsNichtVonDiesenSternChip *grübel*.  :-\

Und nun lüncht mich für meine Aussage/Auffasung :x...

Edit: Als Zusatz: Dieser 3 jahre alte Chip hat schon eine 256Bit Anbindung die man Heute zu Teil als Wunder im Mobilitybereich bezeichnet ;).  Woohoo.
Posted by Klaus Hinum
 - March 04, 2009, 15:51:00
Der G200b kommt nicht im Notebook, da er anscheinend einen zusätzlichen Chip benötigt und nicht auf ein MXM Board passen würde. Daher werden wir jetzt wohl noch eine Zeit beim G92b bleiben. Faszinierend ist halt, das dieses alte Design immer noch gut mithält.
Posted by Crysis Fan
 - March 03, 2009, 19:51:33
Wenn das nicht übertrieben war (bis zu 50% Mehr FPS bei nur 17% mehr takt) HAHA, das ich nicht lache, die werden ja den G92 noch bei der GTX380 vewenden. ATI wird die die HD 4890 (HD 4970 aka RV790) bringen und die zeigt was ne GPU können sollte. Es hat den namen GTX280M nicht verdient, dieser Name ist und bleibt dem GT200 vorbehalten, den der war wirklich eine Maschine. ATI`s RV740 und RV790 sind absolute verbesserungen (40nm und neue Kerne) jedoch keine Leistungs wundern, aber besser als GTX280M. nur das es ja ein voller G92 ist tröstet das ganze.
Posted by Slasher
 - March 03, 2009, 19:08:59
Also ne tolle Leistung, schade das es nicht die versprochenen 30% bis 50% mehr sind. halt nur 10 bis 20% mehr (laut Presentation). Es ist ja klar das der G92b verwendet wird, da GT200b nie in 55 nm im Book kommt, das sollte dann erst bei 40 nm möglich sein. ATI HD 4870 ist grob gesagt auf dem selben leistungslevel und nicht wie versprochen weit unter der GTX280M, schade da gebe es Preisspielerein. Es ist nicht so schlimm das schon wieder der G92 verwendet wird, der Kern ist ja noch gut gebrauchbar nur das sie gleich den Namen GTX280M bekommen musste (9800M GTX+ wäre passender).
HD 4860 (40nm) ist kein Leistungs Wunder sondern der Mobile RV740 (ATI macht also auch namens änderungen), der nur die konkurenz zur GTX260M und 9800M GTX darstellt. die GTX280M ist bestimmt Teuer und eine tolle Sache, naja fast warten wir auf den Mobilen RV790 (auch 40nm) der soll ja viel besser als ein RV770 (nur höher Takt und keine wirklich neue GPU). die heist dann HD 4970 und ist der KING unter den GPU im Notebook.

Es langt jetzt jedes Halbjahr eine neue GPU, ich weis nicht wann es sich lohnt was neues zu holen weil neu Relativ ist
Posted by Klaus Hinum
 - March 03, 2009, 18:17:04
Das meiste vom Test wurde schon vor der Cebit erledigt, aber online durften wir halt jetzt erst nach dem NDA gehen. Grundsätzlich überzeugt der GTX 280M durchaus und das der G200b von der Desktop 280 nicht ins Notebook kommt, war irgendwie klar (durch den exorbitanten Stromverbrauch).

Spannend werden jetzt dann die kommenden 40nm Chips von Nvidia und AMD.