News:

Willkommen im Notebookcheck.com Forum! Hier können sie über alle unsere Artikel und allgemein über Notebook relevante Dinge disuktieren. Viel Spass!

Main Menu

Post reply

The message has the following error or errors that must be corrected before continuing:
Warning: this topic has not been posted in for at least 120 days.
Unless you're sure you want to reply, please consider starting a new topic.
Other options
Verification:
Please leave this box empty:

Shortcuts: ALT+S post or ALT+P preview

Topic summary

Posted by Krake
 - January 16, 2015, 15:29:51
Wieder was dazugelernt.

Ich bin mir nicht so sicher, dass Grafikkarten aussterben werden. Jedenfalls nicht solange sich nichts grundlegend ändert. D.h. solange Intel nicht Nvidia schluckt, die Leistung der Intel-IGPs dadurch nochmals schlagartig gesteigert werden, und Intel die Produktion von dedizierten Grakas vernachlässigt/einstellt.

Der derzeitige Treiberservice von Intel ist nicht ausreichend. Hinzu kommt, dass das Tempo der Leistungssteigerungen bei Intel IGP's zwar beeindruckend, aber nicht schneller als die Steigerungen bei Nvidias Grakas sind.
Es stimmt wahrscheinlich, dass durch verbesserte IGP's dedizierte Lösungen im Consumer-Bereich immer seltener nötig sein werden, allerdings ist mit guten Treibern und gutem Service und enger Kooperation im Gaming-Bereich für Enthusiasten noch einiges drin - jedenfalls ist das mein ganz persönlicher Eindruck.
(Btw: Nvidia hat sich diesen "Fokus" auf gute Treiber durchaus bezahlen lassen: Etwa 250Euro/Top-Modell Aufpreis im Vergleich zu AMDs technisch gleichwertigem Top-Modell. Das sieht für mich ganz stark nach einer Management-/Marketing-Entscheidung aus.)

Zudem gibt es meiner Meinung nach ein Design-/Abwärmeproblem bei zu leistungsstarken IGP's. Zwei räumlich getrennte Hitzequellen lassen sich besser kühlen, siehe die massiven Hitzeprobleme der CPU's mit IRIS-PRO-5200 ... .
Größere Gefahren sehe ich eher durch Knebel-/Kooperations- und Exklusivverträge für Spieleentwickler. Wenn Sony seine Existenz jetzt an die PS4 und deren Nachfolger hängt wird's bestimmt einen harten Überlebenskampf auf diesem Sektor geben. Ohne Spiele, die die von Gaming-Grakas angebotene Leistung abrufen, wird der Markt dafür arg schrumpfen. Keine Ahnung wie das bei professionellen Anwendungen aussieht.

Prinzipiell gehöre ich eher der "Vielfalt statt Uniformität"-Fraktion an. Also wünsche ich AMD alles Gute! ;)

Nur bitte bitte AMD: Setzt eure Ideen ORDENTLICH um.

p.s.:
1.Die Übernahme von ATI durch AMD hatte nicht zufällig irgendwas mit plötzlichen Zahlungseingängen bei AMD im Zusammenhang mit dieser Schweinerei zu tun?

2. Glaube irgendwo gelsen zu haben, dass die 14nm  (in der Praxis wohl eher 16nm) sich nur auf die CPU an sich beziehen, während der Chipsatz weiterhin via älterer Technologie gefertigt wird, so dass die Einsparungen geringer als möglich ausfallen. Lieg ich da richtig?
Posted by JKM
 - January 16, 2015, 01:51:53
### Krake ###

Damit die Antwort auf deine Fragen und sowie ein Eingehen auf deine Meinung nicht zu lange wird, werde ich eine Kurzfassung geben.

Grafikkarten Sterben
Brodwell bekam im Basistakt eine 100%-iGPU-Performancesteigerung.
http://www.notebookcheck.com/Dell-praesentiert-neues-XPS-13-Notebook-und-XPS-15-Refresh.134125.0.html
Das Performance-Potential ist bei 14nm noch lange nicht ausgereizt, aber die ersten Notebooks verzichten auf Grafikkarten.

angebliche Kardinalfehler des AMDs-Managements
Überlege mal, ob AMD überhaupt die Möglichkeit hatte, durch richtiges Management es überhaupt besser zu machen. R600 (sowie die GPU-Krisenjahre später) war ausschließlich ATI, während GCN, Bobcat und Bulldozer ausschließlich AMD war. Bevor jetzt wieder großartig Bulldozer erwähnt wird, soll davor erklären, wie ein besseres AMD-Management Bobcat und Bulldozer wie geplant schon 2009 in geplanten 40nm-HKMG bringen hätte können.
Am Schluss ist alles auf die begrenzten Möglichkeiten der Forschung und Entwicklung, sowohl in den Architekturen als auch in Fertigung zurückzuschließen. Sowohl bei Intel vs AMD als auch bei Nvidia vs AMD (Treiber). Denn die Bulldozer-Architektur würde ja ganz anders betrachtet, wenn Bulldozer in 22nm oder 14nm gefertigt wird und Intels Core-Serie in 32nm-Planar. Bei der Atom-Architektur würde es wahrscheinlich noch schlimmer aussehen, wenn AMD schon in 22nm-3D fertigen kann und Intel nur in 32nm-Planar.
Natürlich tat sich AMD gegen Nvidia schwer, die mit ihren Fokus (=mehr Gelder) im Grafikkarten-Markt dort entsprechende Qualität und Treiber liefern konnte.

Ich finde die Arbeit von AMD in den letzten Jahren garnicht mal soooo schlecht, weil sie aus einem enormen Architektur-Rückstand nächstes Jahr schon einen Architektur-Vorsprung machen könnten. 2006 war so ein Jahr, wo Intel aufgrund seines zig-fach größeren Forschungsgelder den Markt mit mehreren CPU-Architekturen "fluteten", was sie 2009 mit Atom und Larrabee fortsetzte. Dazu war 2006 das Jahr, wo Intel mit ihren zig-fach größeren Forschungsgelder mit ihrere Fertigung merklich von AMD davonzog.

Seitens der Architekturen machte ich eine vereinfachte Chronologie.

2006   (vor ATI-Kauf)
Intel ... 3 CPU (Itanium, Core, Netburst), 1 GPU und 1 Chipsatz (Centrino) Architektur
AMD ... 1 CPU (K8)

2007   (nach ATI-Kauf)
Intel ... 3 CPU (Itanium, Core, Netburst), 1 GPU und 1 Chipsatz (Centrino)
AMD ... 1 CPU (K8), 1 GPU und 1 Chipsatz

2009
Intel ... 2 CPU (Atom, Core), 1 HSA (Larrabee 1.0), 1 GPU und 1 Chipsatz
AMD ... 1 CPU (K10), 1 GPU und 1 Chipsatz
Larrabee 1.0 mit 45nm kam aufgrund der Ineffizienz und Yields nicht am Markt
Intels Multimedia-, Video- und Flash-Fähigkeit hatte schon einen merklichen Rückstand.

2011
Intel ... 2 CPU (Atom, Core), 1 HSA (Larrabee 2.0), 1 GPU und 1 Chipsatz
AMD ... 2 CPU (Bobcat, Bulldozer), 1 GPU und 1 Chipsatz
Die Grafik-Technik ist bei Intel immer noch rückständig.
Larrabee 2.0 mit 32nm kam aufgrund der Ineffizienz immer noch nicht am Markt.

2013
Intel ... 2 CPU (Atom, Core), 1 HSA (Larrabee 3.0), 1 GPU und 1 Chipsatz
AMD ... 2 CPU (Puma, Piledriver), 1 GPU und 1 Chipsatz
Die Grafik-Technik von Intel hat massiv aufgeholt, aber eben mit Patenten von Nvidia.
Larrabee 3.0 mit 22nm kam am Markt und hatte Effizienz-Vorsprung

2015
Intel ... 3 CPU (Atom, Core, Quark), 1 HSA (Larrabee 3.0), 1 GPU und 1 Chipsatz
AMD ... 3 CPU (Puma, Steamroller, A57), 1 HSA (Kaveri), 1 GPU und 1 Chipsatz
Larrabee 3.0 mit 22nm ist am Markt und hat enormen (100%) Effizienz-Rückstand

2016
Intel ... 3 CPU (Atom, Core, Quark), 1 HSA (Larrabee 4.0), 1 GPU und 1 Chipsatz
AMD ... 4 CPU (Puma, Zen, A57, K12), 1 HSA (Carrizo 2.0), 1 GPU und 1 Chipsatz
Larrabee 4.0 mit 14nm kommt am Markt und hat nur S9150-Effizienz.
Intels-Nvidia-Grafik-Patent-Abkommen läuft aus und muss verhandelt werden.

Zum Vergleich
2006-1H   (vor ATI-Kauf)
Intel ... 3 CPU (Itanium, Core, Netburst), 1 GPU und 1 Chipsatz (Centrino)
AMD ... 1 CPU (K8)

Aus dieser Betrachtung sieht es ganz anders aus, was AMD geleistet hat. Die Plattform- und Treiber-Technik ist bei AMD gegenüber der Konkurrenz so gut wie noch nie und alles wartet auf K12 und Zen. Wobei die Omega-Treiber schon heute für HSA 1.0 ausgereift ist, sodass AMD 2015 fast ausschließlich für ARM-Treiber konzentrieren können, die sie nächstes Jahr für den Semi-Customer-Desgin-Win, Amur-HSA-SoC und K12 benötigen.

Seitens der Fertigung sieht es heute für Globalfoundries bzw. AMD ganz anders aus. Sie sind heute ganz anders aufgestellt als 2008, wo sie nur eine Produktionsfabrik, aber keine Forschungsfabrikshalle hallte. Der Kauf der Charterd-Foundry, der Bau von 2 Forschungs-Fabriken (Dresden & New York), der IBM-Kauf und die Kooperation mit Samsung (Entwicklungs und Fabrik (Virtuell)) ermöglicht heute Globalfoundries ein ganz andere Forschungs- und Produktions-Geschwindigkeit.

Ich stelle mir eher die Frage, wie Intel 2016 im traditionellen Markt mit 2 CPUs gegenüber den 4 CPUs von AMD mit deutlich kleineren Fertigungs-Vorsprung dagegenhalten soll, ohne jetzt auf GPGPU (Server, Workstation) und HSA (Workstation, Desktop, Notebook) einzugehen. Aufgrund dieses enormen Konkurrenz-Drucks halte ich ein Nvidia-Kauf von Intel für 2016 für möglich. Denn es gibt viele Gründe, warum Nvidia und Intel perfekt zusammenpassen würden.

1) Intel besitzt Nvidia-Technik/Patente in Intels-GPUs bis 2016
2) Intel kaufte den Supercomputer-Hersteller Cray, warf die AMD-CPUs und GPUs raus und fügte Intel und Nvidia-Technik ein
3) Nvidia hat bei großen Dies immer schon Fertigungsprobleme
4) Nvidia zog sich gerade aus den Smartphone-Markt heraus, während Intel sich momentan immer stärker reindrängt.
5) Nvidia hat sich generell aus den Embedded-Markt zurückgezogen (2013 im Smartphone-Markt und Denver kam 2014 nicht so wie angekündigt) und sich primär auf die Automotive Sparte konzentriert, während Intel mit Internet-of-Thinks in den nächsten Jahren den großteil des Embedded-Markt dominieren will.
6) Intel und Nvidia ergänzen sich Architektur-Technisch sehr gut
Intel hat Big-x86-Core und Little-x86-Atom, während Nvidia Big-ARM-Denver und Little-ARM-A53/7 hat und so perfekt gegen AMDs Big-x86-Zen, Little-x86-Puma, Big-ARM-K12 und Little-ARM-A53 konkurrieren zu können.
Während Intels-HSA-Larrabee-Server (und Intels-HSA-Skylake-Consumer) gegen AMDs-HSA konkurriert, konkurriert Nvidia-GPGPU-Tesla gegen AMDs-GPGPU-FirePro und vielleicht konkurriert heuer noch Nvidias-ARM-HSA-Denver gegen AMD-ARM-HSA-Amur.
7) Wegen der 14nm-FinFETGlobalfoundries-Einführung verliert Intel gegenüber AMD, ARM, Qualcomm, Apple und Samsung massive an Fertigungsvorsprung .

Wobei ich da jetzt die Möglichkeit ausgelassen habe, dass Samsung/Globalfoundries der TSMC-Fertigung (Zeitlich und Qualitätsmäßig) etwas davonziehen könnte, wie es in den jüngsten Gerüchten zu hören ist.

Zuerst einmal wird das Leben von AMD mit Intels 14nm-Fertigung nochmals schwerer gemacht, während Intel und Nvidia wahrscheinlich mit Rekord-Geschäftszahlen glänzen können.
AMD hat 2015 offensichtlich noch ordentliche Probleme und Herausforderungen zu bewältigen, um opitmal ins Jahr 2016 zu kommen. Wobei dei Herausfoderung darin liegt, wie sie jene GPUs, CPUs und SoCs einführen, die in Server-, Workstation-, Desktop-, Notebook-, Tablet- und Embedded-Markt Verwendung finden werden. Die Probleme sind wohl Windows 10, 20nm,14nm, HBM und DDR4.
Posted by Krake
 - January 09, 2015, 21:08:20
Danke für deine ausführlichen Statements!

Hoffen wir mal AMD schafft alles was du für möglich hältst. Denn weniger wird mMn nicht reichen. Gerade im "Massen-GPU-Markt" (Wo ist der gerade am Sterben? - Wegen dem Vormarsch der Konsolen?) hat Nvidia AMD quasi verdrängt. Meiner Meinung nach hauptsächlich wegen fehlender Produktreife bei AMD. Das heißt: Die Hardware war konkurrenzfähig, die Technologien auf dem Papier auch, nur die Umsetzung (TREIBER, Zuverlässigkeit) war unterstes Niveau! Das hat AMD's Ruf bei den "Enthusiasten" ziemlich ruiniert. Ob nachhaltig oder nicht kann ich nicht sagen. Soweit ich mich erinnern kann, gab es solche Probleme bei ATI nicht, zumindest nicht so krass.

MMn waren das Kardinalfehler des AMD-Managements, die so bei ATI sicher nicht passiert wären. ("Hätte hätte Fahradkette!  :-X)

Jetzt gibt es ja den neuen, auch von dir genannten, Omega-Treiber ... abwarten und Tee trinken.


Ich jedenfalls drück AMD mal die Daumen.
Posted by JKM
 - January 09, 2015, 14:40:12
Neben Fiji gäbe es noch die Möglichkeit, dass eine R9 380X als Notebook-GPU (Enthusiast oder High-End/Performance?)

Der Notebook-Markt ist bei AMD der letzte Markt, wo AMD momentan nicht gut dasteht. Die Entwicklung ist da aber enorm. Denn nächstes Jahr kommt dann schon K12, 14nm und vielleicht nach GCN 1.0 (2011) die nächste neue Grund-GPU-Architektur (GCN 2.0), welche immer in 4-5 Jahres Rythmus kommen.

Der Notebook-Markt ist bei AMD momentan noch der einzige Markt, deren CPU-Core-Architektur noch händisch entwickelt wurde. FirePro 9150 und die Konsolen-Desgin-Wins mit Puma und GCN sind schon alle ausschließliche automatisch entwickelte Architekturen. K12 und Zen werden dann auch automatisch entwickelt, was der kleinen Frima AMD dann ermöglicht gleich 2 große Architekture (4-ALU) bzw. eine große x86 und eine ARM-Architektur zu entwickeln.

Grundsätzlich ist der Hauptmarkt (Notebook-Markt) von AMD noch in einer Krise. Wegen 14nm wahrscheinlich bis Ende 2015. Ich persönlich finde AMDs Leistung trotzdem beachtlich, weil sie mit 28nm-Planar gegenüber Intels 22nm praktisch 2 Fertigungsgenerationen hinterherhinkt, was zu K8, K10-Zeiten nie der fall war. [((Technologien wie 3D-Transistoren können auch eine Effizienz-Steigerung wie eine Strukturverkleinerung erreichen, was man bei AMDs Technologie-Einführung in der selben Strukturgröße bei SOI und ULK (beides so -30%-Stromverbrauch) sehr schöne sehen konnte))]. Mit 14nm kurzeitig 3 Generationen.

Deshalb wird für AMD der Wechsel auf 14nm-FinFet so bedeutend sein, weil es einen Sprung von 2 Fertigungs-Generationen entspricht. Zwar ist die Basis 20nm, aber FinFet symbolisiert ja die 2 Generation, weshalb sie als "14LPE" beschrieben wird.

Obwohl AMD sich primär auf K12 und sowie ein bischen auf die letzten Bulldozer-Generation "Excavator" konzentriert hat, konnte AMD mit den Bulldozer-Entwicklungen eine höhere bzw. gleiche IPC-Steigerung (Performance-per-Clock) erreichen, als Intels-Core mit der gleichzeitig erschienenen Sandy Bridge. Zwar auf einen völlig anderen Niveau, aber immerhin.

Wer von Intels großartigen Notebook-Erfolg redet, sollte auch beachten, dass Broadwell wieder nur paar %-IPC/CPU-Steigerung erreichte und alle Core i5-Broadwells nur eine CPU-Performance erreichen, wie sie mein 2 Jahrer alter Core i5-35W hat. In dieser Hinsicht stagniert da Intel technisch und architekturmäßig sehr stark.

Zu guter letzt noch was zur ATI-Übernahme.
So eindeutig und einfach wäre ATIs Weg ohne AMD nicht. Denn im Grunde begann 6 Monate nach dem ATI-Kauf schon der R600-Leidensweg, der mit der Wirtschaftskrise 2008 und 2009 fortgesetzt wurde. Noch vor der 2008-Wirtschaftskrise war der Embedded und Smartphone-GPU-Markt von ATI quasi ein Verlustgeschäft, sodass sie verkauft wurden. Chipsätze sind heute hingegen schon völlig ausgestorben. Gerade während dem R600-Leidensweg sowie in den nachfolgenden Wirtschaftskrisen-Jahren 2008 und 2009 hat Nvidia mit Cuda, Optimus, PhysX, SLI ohne Microruckler sowie die vertiefte Zusammenarbeit mit Spiele-Hersteller (Heute Gameworks) das Leben von ATI-GPUs am Notebook- und Desktop-Markt immer schwerer gemacht, sodass sie erst wieder 2010 Gewinne schrieben. Immer mehr Profi-Softwaren und Spiele-Hersteller unterstützen damals 2007, 2008 und 2009 Nvidias Techniken, die zum Nachteil von ATI-GPUs (teils bewusst ausgelegt) waren. Es dauerte lange (RV770, RV870, GCN, Haweii) bis AMD diesen Rückstand aufgeholt hat und diese großen Hürden mit OpenCL, Enduro, AMD Evolved, Mantel und Frame Pacing durchbrach und mittlerweile einen Trendumkehr schaffte. Heute schreitet AMD mit HSA(-Foundation), Mantle SDK, TrueAudio Media SDK, FreeSynce und Eyefinity selbst technisch voran.

Den Konsolen-Markt kann man aus 2 Betrachtungen sehen.
Eine Betrachtung ist, dass AMD/ATI mit Grafikkarten + Konsolen noch nie so viele Umsätze und Gewinne ereichte wie je Zuvor. Die zweite Betrachtung ist der Vergleich mit AMDs-Gesamt-Umätze/Gewinne oder die von Intel, was dann eher mager aussieht. Aber mit der Mircosofts X-Box, Sonys Playstation und Nitendos Wii kann AMD den Spiele-Markt heute ganz anders mitgestalten, als es davor möglich war.

Für das Jahr 2016 stellt sich für mich eher die Frage:
Welcher Hersteller soll mit AMDs CPU-Architekturen mithalten, wenn sie mit Zen, K12, A53, Puma(, Bulldozer-Excavator) dann zwei Big-Architekturen (4-ALU-ARM und 4-ALU-x86) sowie zwei Little-Arichitekturen (2-ALU-x86 und 2/3-ALU-A53-ARM) besitzen. Denn die Konkurrenz (Intel, Apple, Nvidia) hat "nur" eine große (4-ALU) und kleine Core-Architektur von einer Marke. (Vorausgesetzt AMD bringt 4-ALU-Architetkuren)

Falls AMD nächstes Jahr die 4-ALU-Architekturen wirklich rausbringen soll und Pirate-Island und Carrizo halbwegs ihren Gerüchten entsprechen, könnte AMD ziemlich erfolgreich werden. Ein Erfolgreiches AMD würde mit hoher Wahrscheinlichkeit eine Krise für Intel und Nvidia bedeuten. Schließlich versagen Intel und Nvidia immer noch in Neuen Märkten, was man darin sieht, dass Intels 2014 alle Tablet- und Smartphone-CPUshergeschenkt hat und Mrd. $ Verluste machte, sowie Nvidias Tegra-Markt (Minus 53 Mio. $ im 3Q 2014) ein bisheriges Allzeit-Verlustgeschäft ist. K12 und 14nm sind genau jene Produkte, wo Intels Mega-Gewinne stattfinden, hingegen ist der Massen-GPU-Markt ein wichtiger Nvidia-Markt, der gerade am sterben ist. Und wenn GM200 keine 1:2 Double-Precise besitzt und Fiji tatsächlich 4000 Shader hat, dann wird Nvidia 2015 und 2016 im bisherigen hochprofitablen Workstation und Supercomputer-Markt weiter an Boden verlieren. Ganz so ersichtlich war es nicht, weil Intel Cray kaufte und AMDs FriePros aus dem Sortiement rauswarf. Wobei ein 4000-Shader-Fiji ja auch die profitable GTX 980-Glanzzeit deutlich abmindern würde. Kurzgesagt, falls das so eintreifen mag, würde ich 2016 sogar eine Fusion von Nvidia und Intel für möglich halten.

Wobei es für AMD auch nicht in erster Linie geht, mit gleichguten Produkten halbe Intel-Umsätze (5-7 Mrd. $) und Gewinne (1-2 Mrd. $) zu erreichen, sondern es wäre schon ein Mega-Erfolg für AMD, wenn sie Umsätze über 2 Mrd. $ sowie Gewinne von 100-200 Mio. $ erreichen würden. Deshalb kann AMD 2015 und 2016 auch deshalb Erfolgreich entwickeln, wenn Carrizo, K12, HSA 1.0, Zen, 14nm nicht ganz so gut werden, wie ich es jetzt angesprochen habe.
Als Basis kann AMD die Krisen-Notebookzeit bis dahin gut überbrücken. Zwar kommt bei Nitendo der komplette Umstieg auf AMD-Technik erst 2016, aber 2015 wird erstmals die X-Box und Playstation in China verkauft, die mit einer Bevölkerung von 1,5 Mrd. Menschen ein ordentliches Marktpotential besitzen.
Posted by Krake
 - January 09, 2015, 08:06:48
Das nenn ich mal eine ausführliche Antwort, JKM!

Ich hoffe inständig, dass AMD noch was für den Consumer-Laptop-Markt zustande bringen wird.

Möglich, dass AMD auf anderen Märkten gut dasteht/vorankommt. Bei Notebooks läuft nicht wirklich viel derzeit.

Gesetzt den Fall, dass es bis Jahresmitte enen Fiji-Ableger für Notebooks geben sollte, könnte es gut sein, dass der "nur" knapp die Performance einer 970m erreichen wird ... . (Hab mal 35% auf die Performance einer R9M290X aufgeschlagen.)

Die Konditionen für die Verträge mit Microsoft und Sony scheinen auch nicht sonderlich lukrativ gewesen zu sein, sofern man aus den Bilanzen so etwas ablesen darf.

Ehrlich gesagt hab ich nur wenig Ahnung von grundlegenden Dingen, wie Hardware-Design und Software-Aufsätzen. Ich sehe nur was so alles auf dem deutschen Consumermarkt ist und wie es sich so schlägt (keine Konsolen).

Und in diesen Bereichen sieht's schon länger nicht gut aus für AMD. Nvidias Marketing ist wahrscheinlich kaum besser als das von AMD (neue Namen für alte Produkte, nur marginale Verbesserungen), allerdings liefern sie ab und zu doch wenigstens mal tatsächlich was fortschrittliches ab.

Für den PC-Gamer wäre ein eigenständiges ATI mMn wesentlich besser gewesen, als die AMD-Übernahme.



Posted by JKM
 - January 09, 2015, 04:59:18
@Krake
Wie kommst du drauf, dass notebookcheck der richtige Ort ist, sich gründlich über AMD-Produkte zu informieren?

AMD konnte viele Free-Sync-Monitore zeigen.
Dazu wurde ein Carrizo-Notebook gezeigt.
DFRC wurde wieder erwähnt und das im Bezug auf Carrizo
Sowie NAS-Speicher mit Embedded-APUs usw.

Auf dem ersten Momentan scheint das jetzt nicht besonderes, aber fassen wird mal die Techniken zusammen, die auf der CES gezeigt wurden und in den letzten Wochen grundsätzlich erwähnt wurden.

Carrizo, DFRC (Dynamic Frame Rate Control), Free-Sync, Skybridge, Omega-Treiber

Also,
Carrizo wurde im Frühjahr schon mit +30%-CPU-Performance und 15W-SoC-TDP versprochen, was vor einigen Wochen nochmals in Form von +100%-CPU-Effizienzsteigerung versprochen wurde. Das kennen wir schon von Jaguar-Puma, wo dann AMD tatsächlich die +100%-Effizienz-Steigerung einhielt. Trotzdem muss man bei dieser Zahl vorsichtig sein.

Free-Sync kann auch bei Notebooks eingesetzt werden und so schwachbrüstigere Notebooks zu einem flüssigeren Spieleerlebnis helfen. Anders gesagt. Es ist ein flüssigeres Spielen mit billigerer und schwächerer Grafikleistung möglich, was in einem Notebook schon mal häufiger vorkommt.

DFRC ermöglicht die fps-Einstellung, um damit bei Spielen Strom zu sparen. Ich wäre nicht überrascht, wenn man mit Free-Sync die fps nochmals senken kann und so noch längere Akku-Zeiten in der Spielelast erreicht.

Skybridge macht Carrizo deshalb interessant, weil man mit gleichvielen Desgin-Wins aus Kaveri und Beema das Angebot nahezu verdoppeln kann. Das macht sich zwar in den Tests nicht bemerkbar, aber das ist einer der großen Gründe, warum AMD so wenig verkauft.

Omega-Driver scheint auf den ersten Blick unspektakulär.
Anstatt quasi 6 Monate nach der Hardware, ist der Treiber diesesmal 6 Monate früher fertig.
HSA 1.0 bzw. OpenCL 2.0 scheint verbal schon so ausgelutscht zu sein, dass man es schon zu vergessen beginnt. Anders als früher, werden Adobe, AutoCAD und soviel ich weiß auch der Oracle-Flash erste HSA-Softwaren schon 2015 am Markt bringen, auf die schon 2 Jahre hingearbeitet wurden.
Auch der Omega-Treiber wird den Test-Benchmarks nicht jucken. Aber für AMD macht es Verkaufstechnisch sehrwohl einen Unterschied, ob gleich am Start viele ausgereifte Notebook-Desgin verkauft werden, oder ob sie wie üblich in den nächsten Monaten am Markt tröpfeln. Es ist bei AMD nicht üblich, dass schon so früh laufende Hardware gezeigt wird.


Momentan hat es der Ansicht, falls die Gerüchte und Aussagen bewahrheiten sollen, dass Boradwell primär in der GPU-Performance und Carrizo primär in der CPU-Performance zulegen wird. Gerade in Test, wo die CPU-Performance eine hohe Gewichtung haben, könnte Carrizo vielleicht dann schon etwas Überraschend wirken.


Manchmal muss man auch die Situation erkennen.
Nvidia präsentierte fürn Sommer zwar einen Tegra X1, aber sie präsentierten keine Produkte.
AMD präsentiert keinen embedded-Produkt, dafür neue Produkte, wo aktuele Embedded-APUs verbaut wurden.

Grafikkarten-Technisch macht es Sinn Abzuwarten und zu Schweigen.
Einerseits weil R9 390X vielleicht wegen 20nm noch nicht in sinnvollen Mengen geliefert werden kann und andererseits wurde GM200 ja auch noch nicht vorgestellt.
Vorallem im Supercomputer-Markt.
Denn da ist AMD mit FirePro 9150 heute schon die Crème de la Crème.
Intel hat ja letztes Jahr Angekündigt, mit Xeon Phi in 14nm erst Ende 2015 die 10Gflops/W vom 9150er zu erreichen und erst 1-2 Jahre später in 10nm weiters zulegen zu können.
Seitens Nvidia dachte ich schon längere Zeit, dass GM200 eine 1:2 (Single- zu Double-Precise)-Verhältnis bekommen könnte. Nachdem bei der Supercomputer-Konferenz nur ein K80 und kein GM200 vorgestellt wurde sowie in letzter Zeit es Gerüchte gibt, wo nur eine Quadro-GM200 (Priorität Single-Precise) eingeführt werden soll, bin ich mir garnicht mehr so sicher, ob überhaupt noch ein GM200-28nm bald bzw. heuer in den HPC-Markt kommen wird.
Ein GP200-16+FF wird dann nicht so schnell kommen, während ein eventueller R9 390X in Form einer FirePro-HPC sowie FirePro-Workstation weniger das Problem wäre.


Zusammengefasst
AMDs entscheidende Fragen während dem Jahr 2015, dürften wohl sein:
Kommt der 3000-Shader-GM200 von Nvidia tatsächlich im 1:2 Verhältnis?
Kommt der 4000-Shader-Fiji von AMD tatsächlich?
Kommt Carrizo tatsächlich mit einer schon mehrmals erwähnten +100% Effizienzsteigerung?

Das interessante an diesen drei Fragen ist, sie hängen alle direkt mit OpenCL (2.0) zusammen. Für Consumer-Notebook-User mag das vielleicht uninteressant wirken, aber der Kampf "OpenCL vs Cuda" ist noch lange nicht beendet. Und das ist nicht unwichtig für AMD, weil sich Cuda noch immer Verkaufshemmend auf FirePro-Grafikkarten wirkt.

Und da würde der Kampf so aussehen.
Supercomputer-Double-Precise: 4000Gflops-Fiji vs 1500oder3000GFlops-GM200
Workstation-Single-Precise: 8000GFlops-Fiji vs 6000GFlops-GM200
Hingegen kann Carrizo OpenCL wegen HSA 1.0 im Consumer-Markt noch interessanter machen. Dazu im Low-End-GPU-Worktstation-Markt sowie vielleicht Workstation-CPU-Markt

Mitlerweile gibt es so viele Märkte, wo AMD gutes Geld verdienen könnte. Im Profi-Markt erst recht. Und genau da hatte AMD letztes Jahr mit HPC-S9150 sowie dem Durchburch im FirePro-Notebook-Markt ordentlich aufgeholt. Viele werden Carrizo aufgrund der Single-Thread-Performance sowie der 28nm-Fertigung vielleicht noch deutlich hinter Intel sehen, aber für AMD wird durch Zen & K12 & 14nm auch 2016 ein Meilenstein-Jahr sein, nachdem 2015 schon ein Meilenstein-Jahr durch echtes HSA (1.0) wird. Wobei für AMD eigentlich auch 2014 einen Meilenstein-Jahr durch echtes HSA (1.0) war und sie bis heute die Performance-Krone im Workstation-Markt sowie die Effizienz-Krone im Supercomputer-Markt besitzen.
Und im Jahr 2013 gab es den Meilenstein mit den PS4 und X-Box-One-Konsolen, wo AMD bis heute diese fertigt. Basierend auf diesem Erfolg wird Nitendo 2016 auch voll auf AMD umsteigen.

Also, Hinter den Kulissen prodelts es gewaltig. Bewegung ist schon genug. Da braucht man kein "ARM", weil alleine AMD in den nächsten 6-18 Monaten neben der A57-Architektur auch noch die K12-Architektur sowie HBM und HSA-Technik in ARM-Produkten in Skybridge-x86-Plattformen bringen soll.

Und so wichtig sind CES-Ankündigungen auch wieder nicht. Da würden AMDs-Ankündigungen aufgrund der Informations-Flut doch eher untergehen.
Posted by Krake
 - January 09, 2015, 01:29:00
Was ist eigentlich los bei AMD? Hab gerade nochmal alle CES-Newsmeldungen überflogen und leider gar nichts gefunden. Hab ich was übersehen?

Trübe Geschichte. Intel macht bei den CPUs schon länger was sie wollen, und jetzt ist auch der Grafiksektor vollständig flöten gegangen (zumindest mobil). Die ATI-Übernahme war vor allem eins: schlecht für die Endverbraucher.

Jetzt muss man schon auf ARM hoffen, dass mal wieder Bewegung reinkommt.


(Logischerweise poste ich das nur, weil ich mich grad ziemlich über die GTX 965m- Einstiegspreise echauffiere  >:().
Posted by Till Schönborn
 - January 08, 2015, 19:47:52
Danke, genau aus diesem Grund sind sie auch hier beigefügt. :)
Posted by gmb
 - January 06, 2015, 02:02:42
Löblich das ihr den kompletten Foliensatz online stellt. Bei den Performance Folien gibt es immer Fußnoten, die auf den hinteren Folien aufgelöst werden. Dazu braucht es natürlich auch diese Folien. Kaum jemand hält es für nötig, diese hochzuladen.
Posted by möglicher XMG-Käufer
 - January 06, 2015, 00:19:20
Quote from: rudirudi on January 05, 2015, 17:54:14
Danke Intel

mein t9500 ist immer noch konkurenzfaehig und es besteht kein bedarf.

stromverbrauch aehnlich, und der turbotakt den ignoriere ich, den kann man nicht quantifizieren....

aber ich habe mehr cache und das bringt mehr als so ein doofer turbo

und keine nutzlose integrierte grafik die keiner will oder braucht
Entschuldige, aber das ist einfach nur falsch: Die Caches der C2Ds waren größer, ja. Nur haben die CoreiGens ganz andere Verbesserungen erhalten:
1. Der Level II-Cache ist seit Sandy schneller als der Penryn.
2. Der Level III-Cache ist kaum langsamer als der von Penryn.
3. Seit Sandy gibt es den Ringbus, der
4. Am aller Wichtigsten sind aber natürlich die Praxisergebnisse und da ist halt schon ein Sandy2C  bei gleichem Takt deutlich schneller und sparsamer als jeder Penryn gewesen. Mit Broadwell kann man davon ausgehen, dass es selbst mit auf 1,5 GHZ gedrosselten Takt kaum eine Anwendung gäbe, in der dein T9500 überlegen wäre---der verbrät dafür dann aber halt mal locker das doppelte bis dreifache an Strom!
Posted by martinderweisse
 - January 05, 2015, 21:18:52
 8)Cool, 28W Modelle! Wie mein p9700 <3
Posted by Till Schönborn
 - January 05, 2015, 20:42:21
Bei den ULV-Modellen empfand ich die 100 °C eigentlich nie limitierend. Die Quad-Cores würden von höheren Limits schon eher profitieren. ;)

Allerdings steigt mit der Temperatur auch die Leistungsaufnahme, was wiederum den Turbo schmälert.
Posted by Sven2131
 - January 05, 2015, 19:19:44
Was mir gerade noch aufgefallen ist (letzte Bildergalerie, ziemlich weit am Ende in den Tabellen):
Die maximale Temperatur wurde bei Broadwell (k.A., ob bei jedem Modell) wieder auf 105°C angehoben.

Ob man daraus etwas schließen kann, keine Ahnung  ;D
Posted by Robert Jasiek
 - January 05, 2015, 18:21:05
Wann kommt Cherry Trail?
Posted by rudirudi
 - January 05, 2015, 17:54:14
Danke Intel

mein t9500 ist immer noch konkurenzfaehig und es besteht kein bedarf.

stromverbrauch aehnlich, und der turbotakt den ignoriere ich, den kann man nicht quantifizieren....

aber ich habe mehr cache und das bringt mehr als so ein doofer turbo

und keine nutzlose integrierte grafik die keiner will oder braucht