News:

Willkommen im Notebookcheck.com Forum! Hier können sie über alle unsere Artikel und allgemein über Notebook relevante Dinge disuktieren. Viel Spass!

Main Menu

Dell präsentiert neues XPS 13 Notebook und XPS 15 Refresh

Started by Redaktion, January 06, 2015, 20:00:35

Previous topic - Next topic

Redaktion

Beim XPS 13 handelt es sich um ein kompaktes Ultrabook der Oberklasse, und das bleibt auch nach dem Refresh so. Dennoch greift man im Rahmen des Udates deutlich tiefer in die Trickkiste als dies bei einem normalen CPU-Refresh oftmals der Fall ist. Das neue XPS 13 bekommt folglich ein komplett überarbeitetes Chassis.

http://www.notebookcheck.com/Dell-praesentiert-neues-XPS-13-Notebook-und-XPS-15-Refresh.134125.0.html

JKM

Auch an dieser Notebook-Serie ist es schön zu sehen, wie immer mehr auf dezentrierte Grafikkarten verzichtet werden.

Der Vorgänger hatte noch eine 750M-Grafikkarte, während diese Serie laut diesem Bericht ausschließlich auf Integrierte Lösungen setzt.

Das ist nicht verwunderlich.
Denn Broadwell hat mit +20% mehr Einheiten sowie +50% höheren Basis-Takt (300Mhz statt 200 Mhz) deutlich zugelegt.

SCARed

na ja, zum spielen ist die Intel-GPU aber trotzdem nicht wirklich zu gebrauchen.

was mich am artikel stört: der abschnitt zum neuen UHD-panel des XPS 15 liest sich irgendwie so, als ob Dell jetzt die ersten wären, die 4K auf 15'' anbieten. und das ist ja  - mit verlaub gesagt - mumpitz. 4K für 15'' gibt es jetzt doch schon seit einiger zeit. löblich finde ich jedoch nach wie vor die variante 3200x1800 - weil mir 1600x900 auf 15'' eigentlich reicht.

JKM

Die Frage ist eher, wie Spielen Definiert ist.

Wer aktuelle 3D-Shooter spielen wird, wird sicher nicht damit auskommen.
Wer ältere nicht 3D-Shoter-Spiele nutzt, was bei gelegenheitsspielern nicht unüblich ist, dem könnte schon die iGPU von Intel ausreichen. Eben auch, weil er Detail-Einstellungen auch nicht so hoch einstellt.

Grundsätzlich geht es darum, dass mit jeder APU-Generation von Intel und AMD immer jüngere Spiele spielbar sind und daher dezentrierte Grafikkarten immer weniger gebraucht werden. Man darf ja nicht vergessen, dass Intel erst vor 2 Jahren mit Ive Bridge überhaupt einen brauchbaren iGPU mit brauchbaren Treibern besitzt und damals beim Wechsel auf DX11 einen gewaltigen Sprung bei den Treibern machte.

Mit den Chipssätzen konnte man so eine Entwicklung auch schon sehen. Als ab einer Generation eine bestimmte Grafik-, Multimedia- und Video-Fähigkeit erreicht wurde, flogen die Northbridge-Chipsätze aus Intels Plattformen dann reihenweise aus. Das geschah ja bei Sandy-Bridge.

Anders als bei Chipsätze (HD-Video-Fähigkeit oder nicht), wird es bei der Grafik-Performance nicht so eine klare Grenze geben. Aber aufgrund der Verspätung von Broadwell, wird es seitens Intel schon in 6 Monaten einen weiteren iGPU-Schub geben.

Das Problem von dezentrierten Grafikkarten ist einerseits die momentane relative große Die-Größe sowie der Stromverbrauch, der stark vom Grafikspeicher kommt.
Low-End-GPUs sind 60-70mm² groß und verbrauchen auch bis zu 15W-TDP. Mainstream-GPUs sind üblich 100mm² groß und verbrauchen 25-30W-TDP.
Broadwell ist heute 83mm² groß und braucht nur 15W-TDP und 10W-cTDP.
Früher hatte die 100+mm² große CPU noch eine so 80mm²-Northbridge. Während die TDP einer CPU früher 25-35W hatte, hatte die Northbridge üblich so 10-12W-TDP.

Somit hat sich das TDP-Verhältnis von CPU-Platform und iGPU von damals 2:1 auf mittlerweile 1:2 verändert. Seitens mm²-Die-Verhältnis änderte sich das Verhaltnis so von 2:1 auf 1:1.

naranha

Ehrlich gesagt, wer Spielen möchte sollte nicht zu einem Ultrabook (oder Notebook) greifen. Für 3D Spiele sind sie entweder zu heiß, zu laut oder zu langsam. Von der Akkulaufzeit ganz zu schweigen. Ich habe noch nie gute Erfahrungen damit gemacht. Deswegen machen dezidierte Grafikkarten m.E. in Notebooks auch nicht so viel Sinn.

Ich denke dass durch den Erfolg der Intel-GPUs und kleiner werdenden mobilen Geräte, auch die Spielehersteller in den nächsten Jahren umdenken werden und sich am Erfolg von Spielen wie Hearthstone oder diversen Indie-Titeln orientieren, die auch ohne große Echtzeit 3D Welten auskommen. Ich finde das eigentlich ganz gut weil dies den Fokus mehr auf Inhalte und Gameplay verlagert als auf Proporz mit 3D Effekten. Der hat natürlich auch seinen Platz, aber eher auf Desktop/Gaming-Rechnern ;).

SCARed

@Naraneh: siehst du - genau das denke ich eben nicht. die diskussion um den sinn oder unsinn von gaming-NBs ist so alt wie die dinger selber. sicher, für viele nutzer gänge es auch irgendwie anders (mikro-ITX, zwei rechner, rechner mit rumschleppen, ...) aber unterm strich gibt es insbesondere heutzutage, wo viele (oft erzwungernermaßen) mobil sind genügend anwendungsfälle, wo ein NB sinn macht. ich z.B. hätte zu hause keinen platz für einen "echten" PC, selbst wenn ich den TV als monitor missbrauchen würde. aufs spielen ganz verzichten ist aber keine option - irgendein hobby braucht "mann" ja.  ;) also bin ich glücklich mit dem lappi und weiß, dass ich für die 1200€, die mein VN7-791G gekostet hat, einen deutlich stärkeren desktop gekriegt hätte. für meine spiele (98% WoT) reicht der aber wieder für eine ganze weile für hohe details. und das beste: wenn ich auf dienstreisen muss, kommt das ding in den koffer und ich muss abends nicht trübsinnig im hotel hocken oder mir irgendwelchen mist in der TV-glotze angucken.

und in zukunft: derzeit holt mobile gaming gerade leistungstechnisch ziemlich auf. wie die anfoderungen der spiele in näherer zukunft steigen, ist schwer vorherzusagen. aber die aktuelle konsolengeneration (PS4 & Co.) wird sicher noch für ein paar jahre die generelle richtschnur für den hardwarebedarf sein. beim derzeitigen tempo könnten selbst manche tablets in vier jahren fast auf dem level sein, dass sie die PS4 fast erreichen.  :o

JKM

Damit kein Missverständnis entsteht.

Ich sprach von Massen-GPUs. Das sind Low-End (bis 15W) und Mainstream-GPUs (bis 30W). Das hat nichts direkt mit echten Spiele-Notebooks zu tun. Diese werden ja auch nicht mit Low-End und Mainstream-GPUs ausgestattet, sondern mit Performance- oder High-End-GPUs. Das Problem für Grafikkarten-Hersteller ist, dass Performance- oder High-End-GPUs eben bei weiten nicht die Stückzahlen der Massen-GPUs haben und somit langfristig die Forschungskosten für die Architektur und des Dies der nächsten neuen Generationen auf das eine Karte stärker auswirkt. Dies macht es teurer, wodurch es dann für den einen oder anderen wieder unattraktiv macht.

Weil die PC-Gerate (Smartphone, Tablet, Netbook, Ultrabook, Notebook, "Desktop") mittlerweile wenig kosten können, habe ich es mir angewöhnt, die Geräte nach Bedarf zu kaufen. So kommen dann paar mobile Geräte zusammen, die zusammen weniger Platz als ein Desktop-PC brauchen.

Einig kann man sich sowieso nicht sein, welches Produkt das beste ist. Denn jeder hat unterschiedlichen Bedarf und unterschiedlich viel Platz sowie unterschiedliche Voraussetzungen für die Finanzierung und Nutzungen.

Zwar wird der Bedarf nach dezentrierten Grafikkarten in Zukunft deutlich geringer, aber parallel dürfte die iGPU-Technik in Zukunft wichtiger werden. Denn der Die-Anteil für die Grafik-Unit ist auf Broadwell wieder größer geworden. Auch auf den kleineren Die mit 24-Execution-Units ist der iGPU-Anteil schon größer als die des iCPU-Anteils.

SCARed

okay. dann haben wir wirklich etwas aneinander vorbei geredet. den sinn von GPUs wie GF820M etc. sehe ich schon jetzt nicht mehr, da stimme ich dir also völlig zu.

inwiefern sich deren möglicher wegfall auf die entwicklungsmöglichkeiten (R&D-kosten, wie du schon schriebst) der "richtigen" chips auswirkt, wage ich aber nicht zu beurteilen.

JKM

Im Grunde sind die Kosten garnicht so schwer einzuschätzen. Denn einerseits betont z.B: Nvidia, wieviel Forschungsgelder sie für Fermi und Kepler in den letzten 5 Jahren ausgegeben haben, sowie wurden in den Vergangen Jahren bei Berichten über die Schwierigkeiten der zukünftigen Strukturverkleinerung auch die Kosten eines einzelnen Dies erwähnt. Nvidia spricht von so 1,2 Mrd. $ je Architektur und mittlerweile soll so ein Die um die 30 oder 50 Mio. $ kosten. Diese Kosten müssen ja auf jeden Die irgendwie abgeschrieben werden.

Genauso kann man seriöse Zahlen auch in Bezug auf die Zahlen in Geschäftsbericht nicht sagen. Aber das Problem bei den Massen-GPUs bzw. den Low-End und Mainstream-GPUs ist, dass diese kaum in anderen Märkten genutzt werden können. Schließlich geht der Massen-GPU-Markt auch im Desktop-Markt zurück und dann bliebe noch der Quardo-Markt, der aber auch durch iGPU ersetzt werden kann. Denn AMD bietet z.B: auch APUs als FirePro an, weil schon diese APU alles besitzt, was eine eine Low-End-Profi-GPU benötigt. Soviel ich weiß, sind die FirePro gegen Workstation-Low-End-GPUs noch nicht ausgereift, aber z.B: seitens AMD mit Carrizo und schon fertigen HSA und OpenCL 2.0-Treibern (APP 3.0) kann ich mir eine ernsthafte Workstation-GPU-Konkurrenz vorstellen. Dazu wäre ich nicht überrascht, wenn Intels Skylake im Workstation-Markt bei GPUs auch zulegen kann.

Deshalb bin ich auch der Meinung, dass AMD schon früher seine Prioritäten und Ressourcen aus den Massen-GPU-Markt in andere Märkte abgezogen hat, wodurch ihr Marktanteil dann auf so 30% fiel. Die Zukunft liegt wohl bei iGPUs-Spiele und in Gamer-Notebooks mit Performance und/oder High-End-GPUs.

Früher gab es eine Low-End-, Mainstream-, Performance-GPU sowie ein onGPU im Chipsatz.
Meiner Einschätzung nach wird es in Zukunft nur iGPUs und eine dezentrierte GPU für den Gamer-Notebook geben.

Möglich wäre ja, wenn man die Gamer-Notebooks der Performance-Klasse mit einem GPU-Die (35-50W) und die High-End-Klasse im SLI bzw. Crossfire-Modus mit 2 GPUs-Dies (70-100W) ausstattet. Diese GPU könnte man im Desktop-Markt noch zu Aufrüst oder Nachrüst-Zwecken verwenden.

Das Problem für die Grafikkarten-Hersteller ist, dass Intel ihre iGPU schon in 14nm fertigt, sodass 28 oder 20nm-Grafikkarten der Grafikspezialisten kaum noch Vorteile haben. Es verwundert nicht, warum Nvidia alle 20nm-Grafikkarten gestrichen hat und dann erst auf 16+FF setzt. Bis dann GPUs in 16+FF kommen, wird Intel im Jahr 2016 schon längst mit 10nm liebäugeln. Und dann werden die GPUs mit 16+FF auch nicht soooo schnell kommen. Schon heute hat Nvidia die Maxwell-Architektur zuerst im Tegra-Markt (X1) vor dem Quadro und Tesla-Markt (GM200) präsentiert, sowie die neuste und effizienteste Fertigung für Tegra statt dem Massen als auch Quadro und Tesla-Markt reserviert.

Quick Reply

Warning: this topic has not been posted in for at least 120 days.
Unless you're sure you want to reply, please consider starting a new topic.

Name:
Email:
Verification:
Please leave this box empty:

Shortcuts: ALT+S post or ALT+P preview