News:

Willkommen im Notebookcheck.com Forum! Hier können sie über alle unsere Artikel und allgemein über Notebook relevante Dinge disuktieren. Viel Spass!

Main Menu

Intel präsentiert weitere Broadwell-Chips für Note- und Ultrabooks

Started by Redaktion, January 05, 2015, 16:17:56

Previous topic - Next topic

JKM

### Krake ###

Damit die Antwort auf deine Fragen und sowie ein Eingehen auf deine Meinung nicht zu lange wird, werde ich eine Kurzfassung geben.

Grafikkarten Sterben
Brodwell bekam im Basistakt eine 100%-iGPU-Performancesteigerung.
http://www.notebookcheck.com/Dell-praesentiert-neues-XPS-13-Notebook-und-XPS-15-Refresh.134125.0.html
Das Performance-Potential ist bei 14nm noch lange nicht ausgereizt, aber die ersten Notebooks verzichten auf Grafikkarten.

angebliche Kardinalfehler des AMDs-Managements
Überlege mal, ob AMD überhaupt die Möglichkeit hatte, durch richtiges Management es überhaupt besser zu machen. R600 (sowie die GPU-Krisenjahre später) war ausschließlich ATI, während GCN, Bobcat und Bulldozer ausschließlich AMD war. Bevor jetzt wieder großartig Bulldozer erwähnt wird, soll davor erklären, wie ein besseres AMD-Management Bobcat und Bulldozer wie geplant schon 2009 in geplanten 40nm-HKMG bringen hätte können.
Am Schluss ist alles auf die begrenzten Möglichkeiten der Forschung und Entwicklung, sowohl in den Architekturen als auch in Fertigung zurückzuschließen. Sowohl bei Intel vs AMD als auch bei Nvidia vs AMD (Treiber). Denn die Bulldozer-Architektur würde ja ganz anders betrachtet, wenn Bulldozer in 22nm oder 14nm gefertigt wird und Intels Core-Serie in 32nm-Planar. Bei der Atom-Architektur würde es wahrscheinlich noch schlimmer aussehen, wenn AMD schon in 22nm-3D fertigen kann und Intel nur in 32nm-Planar.
Natürlich tat sich AMD gegen Nvidia schwer, die mit ihren Fokus (=mehr Gelder) im Grafikkarten-Markt dort entsprechende Qualität und Treiber liefern konnte.

Ich finde die Arbeit von AMD in den letzten Jahren garnicht mal soooo schlecht, weil sie aus einem enormen Architektur-Rückstand nächstes Jahr schon einen Architektur-Vorsprung machen könnten. 2006 war so ein Jahr, wo Intel aufgrund seines zig-fach größeren Forschungsgelder den Markt mit mehreren CPU-Architekturen "fluteten", was sie 2009 mit Atom und Larrabee fortsetzte. Dazu war 2006 das Jahr, wo Intel mit ihren zig-fach größeren Forschungsgelder mit ihrere Fertigung merklich von AMD davonzog.

Seitens der Architekturen machte ich eine vereinfachte Chronologie.

2006   (vor ATI-Kauf)
Intel ... 3 CPU (Itanium, Core, Netburst), 1 GPU und 1 Chipsatz (Centrino) Architektur
AMD ... 1 CPU (K8)

2007   (nach ATI-Kauf)
Intel ... 3 CPU (Itanium, Core, Netburst), 1 GPU und 1 Chipsatz (Centrino)
AMD ... 1 CPU (K8), 1 GPU und 1 Chipsatz

2009
Intel ... 2 CPU (Atom, Core), 1 HSA (Larrabee 1.0), 1 GPU und 1 Chipsatz
AMD ... 1 CPU (K10), 1 GPU und 1 Chipsatz
Larrabee 1.0 mit 45nm kam aufgrund der Ineffizienz und Yields nicht am Markt
Intels Multimedia-, Video- und Flash-Fähigkeit hatte schon einen merklichen Rückstand.

2011
Intel ... 2 CPU (Atom, Core), 1 HSA (Larrabee 2.0), 1 GPU und 1 Chipsatz
AMD ... 2 CPU (Bobcat, Bulldozer), 1 GPU und 1 Chipsatz
Die Grafik-Technik ist bei Intel immer noch rückständig.
Larrabee 2.0 mit 32nm kam aufgrund der Ineffizienz immer noch nicht am Markt.

2013
Intel ... 2 CPU (Atom, Core), 1 HSA (Larrabee 3.0), 1 GPU und 1 Chipsatz
AMD ... 2 CPU (Puma, Piledriver), 1 GPU und 1 Chipsatz
Die Grafik-Technik von Intel hat massiv aufgeholt, aber eben mit Patenten von Nvidia.
Larrabee 3.0 mit 22nm kam am Markt und hatte Effizienz-Vorsprung

2015
Intel ... 3 CPU (Atom, Core, Quark), 1 HSA (Larrabee 3.0), 1 GPU und 1 Chipsatz
AMD ... 3 CPU (Puma, Steamroller, A57), 1 HSA (Kaveri), 1 GPU und 1 Chipsatz
Larrabee 3.0 mit 22nm ist am Markt und hat enormen (100%) Effizienz-Rückstand

2016
Intel ... 3 CPU (Atom, Core, Quark), 1 HSA (Larrabee 4.0), 1 GPU und 1 Chipsatz
AMD ... 4 CPU (Puma, Zen, A57, K12), 1 HSA (Carrizo 2.0), 1 GPU und 1 Chipsatz
Larrabee 4.0 mit 14nm kommt am Markt und hat nur S9150-Effizienz.
Intels-Nvidia-Grafik-Patent-Abkommen läuft aus und muss verhandelt werden.

Zum Vergleich
2006-1H   (vor ATI-Kauf)
Intel ... 3 CPU (Itanium, Core, Netburst), 1 GPU und 1 Chipsatz (Centrino)
AMD ... 1 CPU (K8)

Aus dieser Betrachtung sieht es ganz anders aus, was AMD geleistet hat. Die Plattform- und Treiber-Technik ist bei AMD gegenüber der Konkurrenz so gut wie noch nie und alles wartet auf K12 und Zen. Wobei die Omega-Treiber schon heute für HSA 1.0 ausgereift ist, sodass AMD 2015 fast ausschließlich für ARM-Treiber konzentrieren können, die sie nächstes Jahr für den Semi-Customer-Desgin-Win, Amur-HSA-SoC und K12 benötigen.

Seitens der Fertigung sieht es heute für Globalfoundries bzw. AMD ganz anders aus. Sie sind heute ganz anders aufgestellt als 2008, wo sie nur eine Produktionsfabrik, aber keine Forschungsfabrikshalle hallte. Der Kauf der Charterd-Foundry, der Bau von 2 Forschungs-Fabriken (Dresden & New York), der IBM-Kauf und die Kooperation mit Samsung (Entwicklungs und Fabrik (Virtuell)) ermöglicht heute Globalfoundries ein ganz andere Forschungs- und Produktions-Geschwindigkeit.

Ich stelle mir eher die Frage, wie Intel 2016 im traditionellen Markt mit 2 CPUs gegenüber den 4 CPUs von AMD mit deutlich kleineren Fertigungs-Vorsprung dagegenhalten soll, ohne jetzt auf GPGPU (Server, Workstation) und HSA (Workstation, Desktop, Notebook) einzugehen. Aufgrund dieses enormen Konkurrenz-Drucks halte ich ein Nvidia-Kauf von Intel für 2016 für möglich. Denn es gibt viele Gründe, warum Nvidia und Intel perfekt zusammenpassen würden.

1) Intel besitzt Nvidia-Technik/Patente in Intels-GPUs bis 2016
2) Intel kaufte den Supercomputer-Hersteller Cray, warf die AMD-CPUs und GPUs raus und fügte Intel und Nvidia-Technik ein
3) Nvidia hat bei großen Dies immer schon Fertigungsprobleme
4) Nvidia zog sich gerade aus den Smartphone-Markt heraus, während Intel sich momentan immer stärker reindrängt.
5) Nvidia hat sich generell aus den Embedded-Markt zurückgezogen (2013 im Smartphone-Markt und Denver kam 2014 nicht so wie angekündigt) und sich primär auf die Automotive Sparte konzentriert, während Intel mit Internet-of-Thinks in den nächsten Jahren den großteil des Embedded-Markt dominieren will.
6) Intel und Nvidia ergänzen sich Architektur-Technisch sehr gut
Intel hat Big-x86-Core und Little-x86-Atom, während Nvidia Big-ARM-Denver und Little-ARM-A53/7 hat und so perfekt gegen AMDs Big-x86-Zen, Little-x86-Puma, Big-ARM-K12 und Little-ARM-A53 konkurrieren zu können.
Während Intels-HSA-Larrabee-Server (und Intels-HSA-Skylake-Consumer) gegen AMDs-HSA konkurriert, konkurriert Nvidia-GPGPU-Tesla gegen AMDs-GPGPU-FirePro und vielleicht konkurriert heuer noch Nvidias-ARM-HSA-Denver gegen AMD-ARM-HSA-Amur.
7) Wegen der 14nm-FinFETGlobalfoundries-Einführung verliert Intel gegenüber AMD, ARM, Qualcomm, Apple und Samsung massive an Fertigungsvorsprung .

Wobei ich da jetzt die Möglichkeit ausgelassen habe, dass Samsung/Globalfoundries der TSMC-Fertigung (Zeitlich und Qualitätsmäßig) etwas davonziehen könnte, wie es in den jüngsten Gerüchten zu hören ist.

Zuerst einmal wird das Leben von AMD mit Intels 14nm-Fertigung nochmals schwerer gemacht, während Intel und Nvidia wahrscheinlich mit Rekord-Geschäftszahlen glänzen können.
AMD hat 2015 offensichtlich noch ordentliche Probleme und Herausforderungen zu bewältigen, um opitmal ins Jahr 2016 zu kommen. Wobei dei Herausfoderung darin liegt, wie sie jene GPUs, CPUs und SoCs einführen, die in Server-, Workstation-, Desktop-, Notebook-, Tablet- und Embedded-Markt Verwendung finden werden. Die Probleme sind wohl Windows 10, 20nm,14nm, HBM und DDR4.

Krake

Wieder was dazugelernt.

Ich bin mir nicht so sicher, dass Grafikkarten aussterben werden. Jedenfalls nicht solange sich nichts grundlegend ändert. D.h. solange Intel nicht Nvidia schluckt, die Leistung der Intel-IGPs dadurch nochmals schlagartig gesteigert werden, und Intel die Produktion von dedizierten Grakas vernachlässigt/einstellt.

Der derzeitige Treiberservice von Intel ist nicht ausreichend. Hinzu kommt, dass das Tempo der Leistungssteigerungen bei Intel IGP's zwar beeindruckend, aber nicht schneller als die Steigerungen bei Nvidias Grakas sind.
Es stimmt wahrscheinlich, dass durch verbesserte IGP's dedizierte Lösungen im Consumer-Bereich immer seltener nötig sein werden, allerdings ist mit guten Treibern und gutem Service und enger Kooperation im Gaming-Bereich für Enthusiasten noch einiges drin - jedenfalls ist das mein ganz persönlicher Eindruck.
(Btw: Nvidia hat sich diesen "Fokus" auf gute Treiber durchaus bezahlen lassen: Etwa 250Euro/Top-Modell Aufpreis im Vergleich zu AMDs technisch gleichwertigem Top-Modell. Das sieht für mich ganz stark nach einer Management-/Marketing-Entscheidung aus.)

Zudem gibt es meiner Meinung nach ein Design-/Abwärmeproblem bei zu leistungsstarken IGP's. Zwei räumlich getrennte Hitzequellen lassen sich besser kühlen, siehe die massiven Hitzeprobleme der CPU's mit IRIS-PRO-5200 ... .
Größere Gefahren sehe ich eher durch Knebel-/Kooperations- und Exklusivverträge für Spieleentwickler. Wenn Sony seine Existenz jetzt an die PS4 und deren Nachfolger hängt wird's bestimmt einen harten Überlebenskampf auf diesem Sektor geben. Ohne Spiele, die die von Gaming-Grakas angebotene Leistung abrufen, wird der Markt dafür arg schrumpfen. Keine Ahnung wie das bei professionellen Anwendungen aussieht.

Prinzipiell gehöre ich eher der "Vielfalt statt Uniformität"-Fraktion an. Also wünsche ich AMD alles Gute! ;)

Nur bitte bitte AMD: Setzt eure Ideen ORDENTLICH um.

p.s.:
1.Die Übernahme von ATI durch AMD hatte nicht zufällig irgendwas mit plötzlichen Zahlungseingängen bei AMD im Zusammenhang mit dieser Schweinerei zu tun?

2. Glaube irgendwo gelsen zu haben, dass die 14nm  (in der Praxis wohl eher 16nm) sich nur auf die CPU an sich beziehen, während der Chipsatz weiterhin via älterer Technologie gefertigt wird, so dass die Einsparungen geringer als möglich ausfallen. Lieg ich da richtig?
Bild: http://creativecommons.org/licenses/by-nc/3.0/

Quick Reply

Warning: this topic has not been posted in for at least 120 days.
Unless you're sure you want to reply, please consider starting a new topic.

Name:
Email:
Verification:
Please leave this box empty:

Shortcuts: ALT+S post or ALT+P preview