News:

Willkommen im Notebookcheck.com Forum! Hier können sie über alle unsere Artikel und allgemein über Notebook relevante Dinge disuktieren. Viel Spass!

Main Menu

Post reply

The message has the following error or errors that must be corrected before continuing:
Warning: this topic has not been posted in for at least 120 days.
Unless you're sure you want to reply, please consider starting a new topic.
Other options
Verification:
Please leave this box empty:

Shortcuts: ALT+S post or ALT+P preview

Topic summary

Posted by JKM
 - January 29, 2020, 10:33:33
Es ist auch klar, dass es keinen neutralen und perfekten Benchmark gibt, da kann jeder Tester sich selbst was zusammensuchen, was er für am repräsentativsten hält.

Diese Ausage ist wieder so schwammig und für jene Tester unterstützend, die ihren Vergleichsbench nicht untersuchen wollen, wie repräsentativ ihre Vergleichswert tatsächlich ist. Klar, in der PC-Braunche ist sowas wohl überhaupt nicht üblich, aber in anderen Fachgebieten schon, weil ein sauberes Tests-Bewertung-Werkzeug zu einem Test eine Voraussetzung für genaue Test-Daten sind.

Eigentlich erwartet man das von Notebookcheck, die in vielen Tests andern voraus sind. Aber Schlussendlich sieht in der Prognose (Gerücht) wie aktuelle Daten, teils Daten-Wolken, mit zukünftigen prognositziert oder verglichen wird.

Die meisten Tester verwenden eh unterschiedliche Suites, oder ganz eigene wie Gamers Nexus das tut.

Sie wissen halt nicht, was sie tun.
So wie Notebookcheck testet, hat man mit Chinebench (10, 11.5, 15, 20) eine gewisse Konstanz über die Jahre, washlab mit Notebooks über einige Generationen vergleichen kann. U.a. weil sie in der Regel 2-3 Chinebench-Werte bringen. Deshalb kann man mit Notebookcheck-Daten auch arbeiten.

Ich zielte primär darauf ab, dass AMD und Intel hier auch sehr gerne sich das Beste herauspicken und aus Marketinggründen favorisieren, und man dann schon mal das Ganze kritisch beäugen muss.

Das  Cherry-Picken funktioniert halt nur mit Anwenderspezifischen Benches. AMD hat dann mal per Zen auf Chinebench gewechselt, nicht nur weil sie damit wieder ganz gut waren, sondern weil Chinebench schon längst als Haupt-Vergleichs-Wert bei den PC-Testern etabliert war.

Geekbench ist dann mal irgendwann gekommen oder irgendwann an die Oberfläche erschienen.

Ich gehe nach Praxistests und schaue bei Tests eher auf Performance bei gängigen Anwendungen und Spielen, und als Entwickler auch sehr oft nach Erfahrungswerten, ...

Entwickler sehen natürlich die Tests anders z.b. PC-interessierte-User, die gerne über die Unternehmens-Entwicklung schreiben. Ersteres sind diverse Anwendungen, a la Cherry Picks, wichtig, um sein Bedarfs-Profil bestens auszunutzen, zweiters beinhaltet alle Anwendungen in allen Märkte.

Idealerweise sind Tests, die einen allgemeinen Vergleichswert (Chinebench R 11.5/15/20 & 3Dmark 11), und im Falle von Notebooks, weil diese nicht immer gleiche werte bringn auch Durchschnittswerte, sowie eben diverse Benches von diversen Anwendungen, wie es auch Notebook-check z.b. mit Games macht.


Posted by Unter
 - January 28, 2020, 20:37:19
Quote from: MatthiasF on January 28, 2020, 19:56:54
Zumindest nicht auf dem verwendeten Testsystem.
Ja. Ich habe gemeint, daß wenn "Laptop-CPU" etwas wegen dem Drosseln nicht schafft, dann liegt das am Laptop. Nicht am CPU. Kühlung. Man kann anfangen von minimaler Kühlung, wo alles abgedrosselt wird. Bis Stickstoffkühlung, wo die gleiche CPU Generationen überspringt. Letztes muss nicht sein, wird auch nicht eingebaut. Erstes muss nicht sein, wird aber so gebaut. Die Geschichten, daß es unberechenbar, unbeherrschbar, unkalkulierbar ist, sind für Analphabeten.
Posted by MatthiasF
 - January 28, 2020, 20:14:09
Quote from: JKM on January 28, 2020, 09:21:35
Einen Vorteil, den echte Anwendungsbenchmark-Suites jedoch gegenüber synthetischen Suites haben, ist der, dass Entwickler von Anwendungen regelmäßig neue Technologien und Optimierungen implementieren, die direkt auf das Verhalten ihrer Anwendung abzielen.
Ich würde sagen, das dies falsch ist.
Der stetige Update bei Benchmarks erfolgt über eine neu Version, wie wie Konsolen dann alle 3-5 Jahre mal stehenbleiben. Wenn du einen Anwendungsbench hast, der jedes Monat sich aktuellisiert und die ein oder andere Funktion der CPU dazugibt, dann kann man bei jeden CPU-Tests nicht nur die eine neue CPU testen, sondern alle anderen CPUs, mit dem an vergleichen will. Kurz gesagt, dann wäre das ein Zeitabhänigiger Test, was wesentlich komplizierter ist.

Ja, das ist schon korrekt.  :) Ich bezog mich auf fortlaufende Updates für eine Anwendung in Form von Patches oder Erweiterungen. Es ist auch klar, dass es keinen neutralen und perfekten Benchmark gibt, da kann jeder Tester sich selbst was zusammensuchen, was er für am repräsentativsten hält. Die meisten Tester verwenden eh unterschiedliche Suites, oder ganz eigene wie Gamers Nexus das tut. Ich zielte primär darauf ab, dass AMD und Intel hier auch sehr gerne sich das Beste herauspicken und aus Marketinggründen favorisieren, und man dann schon mal das Ganze kritisch beäugen muss. Ich gehe nach Praxistests und schaue bei Tests eher auf Performance bei gängigen Anwendungen und Spielen, und als Entwickler auch sehr oft nach Erfahrungswerten, da ich oft mit Profiling und Programmverhalten zu tun habe und auf verschiedenen CPUs teste (sowohl von Intel und AMD). Letztlich spielen für größere Workloads auch Speicher, Cache, Medienzugriffszeiten und laufende Hintergrundprozesse oft eine größere Rolle, da sie letztlich entscheidend für das Latenz- und Leistungsverhalten des Systems sind. Ich denke da beispielsweise an Corsair's ICUE. Nettes Programm zur AiO-Steuerung, aber leider auch eine Ryzen-Bremse. ;)
Posted by MatthiasF
 - January 28, 2020, 19:56:54
Quote from: Unter on January 28, 2020, 05:28:26
Quote from: MatthiasF on January 27, 2020, 23:29:45
Deshalb gilt für mich nur das was ich als Anwendungsfall habe, und man kann eine Workstation CPU schlecht 1:1 mit einer Laptop CPU vergleichen. Ich kann meinen Rechner bei 16 Kern Volllast bei 75°C halten ohne Throttling, das schafft auch eine moderne Laptop-CPU nicht mal bei vier Kernen. Damit werden die Ergebnisse auch verzerrt, wenn ich beide gegeneinander antreten lassen würde.
Nur ein kleiner Widerspruch:
Liegt nicht an dieser Laptop CPU. Weil die das kann, Volllast ohne Drosseln.

Zumindest nicht auf dem verwendeten Testsystem. Ich habe zufälligerweise den Test auf GB gefunden. Es scheint tatsächlich zum HTC zu kommen. Die restlichen Werte liegen 20-25% unter dem Erstwert.

Ich habe das mal mit meinen Scores verglichen. Im Crypto-Score scheint der Intel ziemlich gut abzuschneiden, was bei den ganzen Security-Problemen, mit denen Intel in letzter Zeit zu kämpfen hat, schon eine Ironie ist.
Posted by RobertJasiek
 - January 28, 2020, 12:11:01
Bei all eurer CPU-Geschwindigkeitsexpertise habe ich eine Frage an euch: Wie schätzt ihr - angewendet auf neuronale Netze - "Apple-Bionik-CPUs" im Vergleich zu "Intel Core-i-CPUs kombiniert mit Nvidia-Grafikkarten" ein?
Posted by JKM
 - January 28, 2020, 09:21:35
Ja, leider gibt es keinen echten Standard für Benchmarks.
In der Natur gibt es oft nicht diesen einen echten Standard-Benchmarkt. Alles möglichen Test-Verfahren sind Modelle mit bestimmten Falschheits-Grad. Außer die bekannten Testverfahren, die einfach und schnell sind.

Natürlich könnte man auch in alle Anwendungen testen und sie nach Nutzerhäufigkeit (Personen) und Nutzer-Wichtigkeit (Büro zur Geldvermehrung oder Home-solala-Programm) Testen und mit dem Chi-Quadrat-Test schauen, ob man zu der Test-Varibalen eine Verteilung bekommt und daraus über den Mittelwert oder Integration dann einen Vergleichswert bekommt. Also, so wie in Fachbereichen wo man sehr ungenaue oder schwer einzuordnende Daten bekommt.

Was eben in anderen Fachbereichen völlig normal ist, ist halt in der PC-Bereich dies völlig abnormal, wo halt einfache und extrem genaue Tests genutzt werden, wo es nicht normal ist, seine Testsverfahren ständig überprüfen oder nachschleifen/updaten zu müssen. Deshalb hätte es eben viel mehr Sinn einmal im Jahr den Vergleichwert zu findne. (sei es ein Benchmark mit Korrektur-Faktor), anstatt bei jeden Tests x-fache syntetische Werte zu testen, und der Leser sich bestimmte raussuchen kann, wo man eben nicht weiß, wie repräsentativ jeder syntetischer Wert ist (z..b Chinebench R11.5, R15, R20). Ein Tests braucht eine klare linie. Denn sonst kommt das raus, wie in diesem Betrag, wo irgendeine CPU (Notebook) mit irgendeiner anderen CPU (Desktop) mit irgendeinen Benchmark (Geekbench) verglichen wird, mit den Notbook-Test nicht testet.

Natürlch ist man an CPU-Leaks interessiert,
aber man muss mit diesen Daten auch umgehen & gut verarbeiten könnten, was mit Leaks viel schwieriger ist als mit selbstgetesteten Daten. Mich würde es nicht wundern, wenn Notebookcheck-Leser besesr Leaks-Test umgehen & verareiten können, als Notebookcheck-Tester, weil Notebookcheck-Leser es gewohnt sind nur mit reinen Daten eine Meinung zu machen, als ein Notebookcheck-Tester, der es gewohlt ist, aus den Daten eine Meinung zu machen, wo er noch die ganze Test-Erfahrung im Gefühl hat, und weiß sie sich die CPU in den ganzen Tests verhalten hat, wo dieses nur im Ansatz in den Tests beschrieben wurde.
Deswegen tun sich Tester meiner Meinung nicht zufällig so schwer bei Gerüchten & Leaks.

Einen Vorteil, den echte Anwendungsbenchmark-Suites jedoch gegenüber synthetischen Suites haben, ist der, dass Entwickler von Anwendungen regelmäßig neue Technologien und Optimierungen implementieren, die direkt auf das Verhalten ihrer Anwendung abzielen.
Ich würde sagen, das dies falsch ist.
Der stetige Update bei Benchmarks erfolgt über eine neu Version, wie wie Konsolen dann alle 3-5 Jahre mal stehenbleiben. Wenn du einen Anwendungsbench hast, der jedes Monat sich aktuellisiert und die ein oder andere Funktion der CPU dazugibt, dann kann man bei jeden CPU-Tests nicht nur die eine neue CPU testen, sondern alle anderen CPUs, mit dem an vergleichen will. Kurz gesagt, dann wäre das ein Zeitabhänigiger Test, was wesentlich komplizierter ist.

Hat man eben nur den einen Bech, a la Chinebench R15, dann kann man die Ergebnisse der alten CPU-Test dazu nehmen, weil sich das Test-Werkzeug nicht mit der Zeit verändert hat.

Geekbench nutze ich nicht, weil ich ja nie genau weiß, wie sich jede Version verändert hat. Leaks mit Geekbenches war für mich immer schon recht nutzlos. Denn wenn man sich mal um Plus-Minus 5% vertut, dann hat man bei der CPU oft schon gleich ein völlig anderes Bild. Siehe eben RyZen 4800U, welcher eben Single-Thread-Bench +4% vor Ice-Lake wäre. Mal so (-1%) Rückstand auf Ice-lake oder klaren (+9%) Vorsprung zu haben ist, ist ein großer Unterschied im Pc-Markt.

Daz müssen Leaks zum bisher Technischen passen, womit man auch bei Leaks den Bezug herstellen muss. z.B. hatte AMD beim RyZen Desktop 3000-Serie eben so +100% Effizienz geschafft. Deshalb stellte ich die These auf, dass AMD dies auch im Notebook-Markt schafft, was nicht ganz eindeutig ist, weil die Fertigung auch die dazugehörigen Spannungs-Senkungen schaffen muss, was wohl Intel bei Ice-Lake nicht ganz geschafft hat. Deshalb war die +100% Performance-Pro-Watt, die ADM bei Renori angegeben hat keine Überrschung. Aber die Große Frage war, ab welchen Punkt man die +100% Effizienz rechnen sollte, um diese mit Ice-lake zu Vergleichen bzw. wie AMD auf die +90%-höhere Performance vs Ice-Lake gekommen ist. Möglich ist zu behaupten, wenn dieser Punkt z.b. der Durschnitts aller mit Chinebench R15-Multi-Thread getesteten Picasso-R5-R7-Notebooks ist.

Bei Tiger-Lake hat man jetzt halt nicht so gute bzw. eher grobe Anhaltspunkte. z.b. gibt es den Tiger Lake nur als 4-Kerner, was bedeuten kann, dass Intel erwartet diesen nie so effizient hinbekommt, das sie wie Comet-lake eben als 6-Kerner rauszubringen. Also, der Tiger-lake soll so mit 144mm² eben 20mm² größer werden als der Ice-Lake, was Intel mit 2 weiteren CPU-Kernen statt weiteren 32-EU Grafik-Kernen auch hätte zu können. Natürlich kann man auch beheupten, dass der Tiger-Lake mit +25-35% IPC-Steigerung so schnell wird, dass sie +2 Kerne, also einen 6-Kerner im 15W-Markt nötig nötig haben. Aber würde Willow-Core bei Tiger-Lake eben +25-35% IPC-Steigerung erhalten, dann gäbe es längst andere Indizien für ein enormes IPC-Wachstum.


Fazit:
Mag sein, dass sich die quartalisch ändernde Anwendungsspezifische Benchmarks die CPU im einzelen die Werte genauer vergleicht. Aber bei CPU-Leaks muss man eigentlich den Bezug zum Vorgänger sowie einem Benchmarks gebe. Bei AMD war ein +100%-Effizienz aufgrund der Desktop-Version eben Möglich und Wahrscheinlich. Aber wohl soll bitte der Ice-lake denn die +30-50% Effizienz bekommen, um Anfsatzweise zu Renoir zu kommen? Wohl viel eher über die Spannungs-Sekung + Taktsteigerung als über die IPC-Steigerung. Aber nach 5 Jahren 10nm-Fabriks-Entwciklung wird Intel doch plötzlich im 6. Jahr eher unwahrscheinlich die Mega-Takt-&-Effizienz-Sprung schaffen, während bei +30-50% Effizienz-Performance-Steigerung beim 4-Kern-Ice-Lake eben +20-35% Mehr Takt bedeuten würde, was dan beim 4-Kern-Multi-Thread-Takt von 3,0 Ghz eben 3,6-4,0 Ghz bedeuten würden, was ziemlich unrealistisch wäre.

Also, die Möglichkeiten des Tiger-Lakes sind wegen seinen 4-Kernen perse schon ziemlich eingeschränkt.
Posted by Unter
 - January 28, 2020, 05:28:26
Quote from: MatthiasF on January 27, 2020, 23:29:45
Deshalb gilt für mich nur das was ich als Anwendungsfall habe, und man kann eine Workstation CPU schlecht 1:1 mit einer Laptop CPU vergleichen. Ich kann meinen Rechner bei 16 Kern Volllast bei 75°C halten ohne Throttling, das schafft auch eine moderne Laptop-CPU nicht mal bei vier Kernen. Damit werden die Ergebnisse auch verzerrt, wenn ich beide gegeneinander antreten lassen würde.
Nur ein kleiner Widerspruch:
Liegt nicht an dieser Laptop CPU. Weil die das kann, Volllast ohne Drosseln.
Posted by MatthiasF
 - January 27, 2020, 23:29:45
Quote from: JKM on January 27, 2020, 14:13:11
Benchmarks müssen Repräsentativ sein, aller Anwendungen gewichtet nach der Nutzungs-Häufigkeit/Bedeutung, und nicht, wer was mag, nur weil es dort besser funktionert.

Ja, leider gibt es keinen echten Standard für Benchmarks. Einen Vorteil, den echte Anwendungsbenchmark-Suites jedoch gegenüber synthetischen Suites haben, ist der, dass Entwickler von Anwendungen regelmäßig neue Technologien und Optimierungen implementieren, die direkt auf das Verhalten ihrer Anwendung abzielen. Währenddessen die synthetischen Varianten lediglich segmentieren, und auf bestimmte Hardware-Bereiche abzielen und bei denen das Verhalten statisch bleibt. D.h. ein ineffizienter Algorithmus wird für den Lebenszyklus des Benchmarks auch weiterhin ineffizient bleiben, damit keine Scores ungültig werden.

QuoteAls Tester müsste man überprüfen, welcher Benchmark am repräsenativesten ist, um statt viele Test-Paramter aller Tests eben nur einen repräsentativen Test-Parameter eines Tests zu zeigen, was eben viel übersichtlicher ist.

Wenn Intel CPUs plötzlich aus dem Nichts mit einer neuen Bench-Version besser wird, dann muss dies überprüft werden, was eben repräsentativer ist.

Genau. Geekbench simuliert Szenarien, ohne dass der Benutzer mehr als einen Fortschrittsbalken sieht. Das ist relativ intransparent, z.B. würde mein Ryzen 3950X 1316 Punkte im Einzelkern haben, aber dafür 14424 im Mehrkern, die Frage ist: Was sagen mir diese Zahlen konkret aus?  Normalerweise wird bei GB auch in die getesteten Bereiche aufgeschlüsselt. Solange ich hier bei dem veröffentlichten Score vom Tiger Lake U nichts ähnliches sehe, kann ich keinen Vergleich ziehen. Es sagt auch nicht aus, weshalb er in einigen Bereichen besser ist, das kann neben weiteren architektonischen Verbesserungen durchaus zusätzlich am dickeren L1-Cache liegen oder an einer anderen Besonderheit, die in einem Untertest, der diese Bereiche und Funktionen der CPU besser nutzt, zu besseren Ergebnissen führen. Die Frage ist: Wie relevant sind diese Funktionen für den Alltag bzw. meine Anwendungsfälle?

Nebenbei: Wie kann es sein, dass manche Ryzen 3900X-Scores teilweise mehr als 3100 Punkte aufzeigen? Das ist unreal und unterminiert die Glaubwürdigkeit von GB für mich.

Deshalb gilt für mich nur das was ich als Anwendungsfall habe, und man kann eine Workstation CPU schlecht 1:1 mit einer Laptop CPU vergleichen. Ich kann meinen Rechner bei 16 Kern Volllast bei 75°C halten ohne Throttling, das schafft auch eine moderne Laptop-CPU nicht mal bei vier Kernen. Damit werden die Ergebnisse auch verzerrt, wenn ich beide gegeneinander antreten lassen würde.

Quote
In der Realität sind diese oft wenig spürbar.
Nichts ungewöhnliches.
In der Realität empfindet der Mensch in der Regel logarithmisch a la dB(A). Den Lautstärken-Unterschied hört der Mensch erst ab 3dB, was schon der doppelte Schalldruck entspricht. +10dB hat schon den 10-fach höheren Schalldruck. Zum Empfinden wird die A-Linie bevorzugt bzw. am repräsentativesten für das Menschliche Hör-Empfinden genommen.

Es sei denn, wie in meinem Fall, in dem ich selbst in Video-Render-Szenarien tatsächlich weniger 1% Abweichung messe, wenn ich das Leistungsprofil wechsle. D.h. ich kann es auch nachmessen und das lässt mich objektiv zum Schluss kommen, dass synthetische Benchmarks oft nur die halbe Story sind. Ohne zeitliche Bezüge auf SOLL/IST bzw. Vorher/Nachher, d.h. aktives Profiling, würde man tatsächlich auf subjektive Einschätzungen beschränken müssen. Dann träfe auch der Lautstärken-Vergleich zu.
Posted by gruffi
 - January 27, 2020, 18:18:22
Also dümmer geht's ja wohl echt nicht. Wieso wird hier mit einer alten Zen+ basierten APU verglichen, obwohl AMD gerade erst die mobile Zen 2 basierte Ryzen 4000 Serie vorgestellt hat? Und Tiger Lake U wird voraussichtlich erst in Q4 2020 oder gar erst 2021 auf den Markt kommen. Dann dürfte auch die mobile Ryzen 5000 Serie anstehen. Die dank neuer Architektur ein deutliches CPU Update bekommt und dank RDNA2 sogar noch mehr bei der iGPU zulegen sollte. So wirklich sehe ich da keine positive Tendenz bei Intel. Vor allem wenn es dabei bleibt, dass aufgrund der 10nm Probleme nur ein mobiles Design mit 4 Kernen abfällt. So wie es der Geekbench Test vermuten lässt und so wie es bei Ice Lake U schon der Fall war.
Posted by JKM
 - January 27, 2020, 14:13:11
Sowohl Intel als auch AMD favorisieren ihre "persönlichen" Benchmark-Suites. AMD mag Cinebench, Intel hasst Cinebench und mag dafür SYSmark oder Geekbench, besonders ab Version 5).

Benchmarks müssen Repräsentativ sein, aller Anwendungen gewichtet nach der Nutzungs-Häufigkeit/Bedeutung, und nicht, wer was mag, nur weil es dort besser funktionert.

Die willkürlich vergebenen Punkte suggerieren oft erhebliche Mehrleistung, der Nutzer weiß aber oft nicht, wie diese sich zusammensetzen und wodurch.

Als Tester müsste man überprüfen, welcher Benchmark am repräsenativesten ist, um statt viele Test-Paramter aller Tests eben nur einen repräsentativen Test-Parameter eines Tests zu zeigen, was eben viel übersichtlicher ist.

Wenn Intel CPUs plötzlich aus dem Nichts mit einer neuen Bench-Version besser wird, dann muss dies überprüft werden, was eben repräsentativer ist.

In der Realität sind diese oft wenig spürbar.
Nichts ungewöhnliches.
In der Realität empfindet der Mensch in der Regel logarithmisch a la dB(A). Den Lautstärken-Unterschied hört der Mensch erst ab 3dB, was schon der doppelte Schalldruck entspricht. +10dB hat schon den 10-fach höheren Schalldruck. Zum Empfinden wird die A-Linie bevorzugt bzw. am repräsentativesten für das Menschliche Hör-Empfinden genommen.
Posted by MatthiasF
 - January 27, 2020, 12:37:37
Da es sich um eine Laptop-CPU handelt, spielt es eher eine Rolle, wie lange sich der Takt und damit die beschriebene Maximalleistung halten kann, besonders bei CPUs <45 W TDP sieht es immer recht mau aus, obwohl Intel ja da sehr viel verbessert hat, aber die Physik setzt nun mal schnell die Grenzen was die Wärme-Entwicklung und Verbrauch angeht. Zumal sie nun mit einem dickeren Cache kommen, was nochmal den Verbrauch steigern wird.

Hier wird aber suggeriert, dass ein Tiger Lake U einen Ryzen 3950X interdisziplinär schlagen kann, das wage ich zu bezweifeln. Zum Einen sind die Anwendungsfälle für beide CPUs sehr unterschiedlich und zum anderen skalieren beide CPUs auch komponentenabhängig unterschiedlich. Ein Ryzen 3950X, der im Desktop verbaut ist, kann seine minimal geringere Einzelkern-Leistung länger halten als ein Laptop, selbst mit Deep-Learning-Algorithmen. Richtig ist, dass Einzelkern immer ein Metier von Intel war, aber der Abstand mittlerweile so sehr geschrumpft ist, dass im realen Alltagsgebrauch, das nicht einmal im Ansatz zu spüren ist, es sei denn man verwendet Anwendungen, die eine hohe Einzelkernlast verursachen. Diese existieren, aber mehr Kerne verfügbar zu haben, bedeutet auch, dass das Betriebssystem Threads auch flexibler verteilen kann. Deshalb ist der Vergleich bzw. die suggerierende Aussage unsinnig, wenn nicht auch tendenziös.

Bei Geekbench handelt es sich um einen Cross-Plattform-Benchmark, und das Problem bei synthetischen Benchmarks ist, dass es Algorithmen in Firmware/BIOS als auch CPUs gibt, die solche Situationen erkennen und sich anders verhalten. Sowohl Intel als auch AMD favorisieren ihre "persönlichen" Benchmark-Suites. AMD mag Cinebench, Intel hasst Cinebench und mag dafür SYSmark oder Geekbench, besonders ab Version 5). Die willkürlich vergebenen Punkte suggerieren oft erhebliche Mehrleistung, der Nutzer weiß aber oft nicht, wie diese sich zusammensetzen und wodurch. In der Realität sind diese oft wenig spürbar. Beispiel: Bei Cinebench R20 bekomme ich ohne PBO in einem energie-effizienteren Profil auf meinem 3950X nur knapp 8900 statt der 9500 Punkte zusammen, das bedeutet aber in der Realität eine Berechnungszeit von 60,7 Sekunden statt 60,2 Sekunden in meinem eigenen Testszenario mit Adobe Premiere 2020. Soviel zum Thema Benchmarks.

Generell gibt es zwei wichtige Szenarien, die viel mehr aussagen als synthetische Benchmarks: Anwendungen und Spiele. Ich würde mich nicht wundern, wenn ein Tiger Lake U am Ende in Anwendungen weit über einem Ryzen 2 im Laptop-Bereich schlägt, aber auf graphischer Seite halte ich die Xe-Architektur noch für zu jung und schwachbrüstig um dedizierten Lösungen oder geschweige denn AMDs integrierten Lösungen in Spielen oder GPU-lastigen Anwendungen die Stirn bieten zu können. Ich würde die realen Tests abwarten und wie bereits gesagt, für AMD ist Zen 2 ein alter Hut, da ihr Hauptaugenmerk dieses Jahr auf Zen 3 liegen wird.

Gegen diese wird Tiger Lake U auch antreten müssen, gleich zweimal: auf CPU-Ebene und GPU-Ebene, d.h. gegen Vega. Immerhin scheint die existierende Konkurrenz bei Intel endlich zu fruchten, was immerhin ein Plus für den Kunden bedeutet: ehrlichere Preispolitik, echte Vergleiche und kontinuierlichere Weiterentwicklung in kürzeren Zyklen.
Posted by Rudi84
 - January 27, 2020, 00:05:55
Meine Güte was habt ihr erwartet? Das Intel jetzt Jahrzehnte lang abgehängt wird? Erst mit ryzen 3000 zog man klar an Intel vorbei was auch gut war. Intel war 50% bei xeon 75% überteuert. Mann kam nur hoffen das es bald mehr Anwendungen geben wird dir richtig Skalieren... Das Intel wieder kommt war mir schon klar, aber wie gesagt der arsch tritt war richtig und gut
Posted by JKM
 - January 26, 2020, 21:45:58
..., also auch AMD sollte sich nicht zu früh freuen. Da muss man schon beidseitig abwarten. Es ist aber schon klar, dass Tigerlake bei der ST Leistung deutlich vorne sein wird,

Es geht ja nicht ums freuen,
sondern eigentlich höre jetzt jetzt zum dritten Jahr, dass der 10nm-CPU (2x Ice-lake und jetzt Tiger-Lake) AMD klar, vorallem Single-Thread schlagen wird.

Tiger Lake hört sich in den Gerüchten alles andere als überdurchschnittlich an. Vorallm redet Intel selber nicht über Tiger-Lake, außer dass die 10nm Fertigung wie schon viele Jahre zuvor "Ahead of Expection" ist.

Diesesmal muss Tiger-Lake eigentlich klar vor Renior sein, weil der Renor-Nachfolger mit Zen3 wieder deutlich zulegen wird, weil dann Intels 7nm-Fertigung sowieso erst frühestens im 4Q-2021 kommen wird.

Sonny-Cove brauchte 5 Jahre und brachte +20% IPC-Steigerung. Warum dann Tiger-Lake dann nach 1 Jahr wieder +20% IPC-Steigerung so klar & logisch zulegen soll, ist mir schon ein Rätsel. Eher würde ich es als Überraschung sehen, wenn Intel mit Tiger-Lake nach nur einem Jahr wieder +20% IPC zulegen würde.

... während AMD bei der MT Leistung deutlich vorne sein wird, zumindest bei den 8 Kern Modellen.
Die 8 Kern Modelle sind die High-End-Modelle.
Natürlich kann man dann Tiger-Lake mit den RyZen 3 Modellen vergleichen, wie zu Zeiten der Bulldozer-Architektur, wo die AMD Topmodelle mit den Core i3 verglichen wurden und gerade noch irgendwie mithalten konnte.

Man man nicht gegen das Top-Modell vergleichen will, dann kann ein Notebook-Prozesser nie besser sein, und schon garn nicht klar.
Posted by noan
 - January 26, 2020, 18:29:28
Mmmh relativer schlechter vergleich da man keine ahnung vom strom verbrauch hat, wenn das ein 25 watt tdp intel ist, ist der vergleich hinfällig. Und selbst wenn beide die gleiche tdp haben sollten ist das nicht der reale stromverbrauch....und wie meine vorredner sagen der kommt erst später raus und da sind dann auch neue cpus von amd an dennen der sich messen muss..... Man kann auf fortschritt bei intel hoffen ....mehr nicht
Posted by gmb
 - January 26, 2020, 16:39:46
Ihr solltet erwähnen, dass bei dem Timespy run von Tigerlake kein Turbo aktiv gewesen ist, die CPU rennt nur mit dem base von 2,7 Ghz. Und außerdem ist das noch ein frühes ES, genau wie bei dem Geekbench Eintrag, das ist sogar ein noch schwächeres Modell mit nur 2,3 Ghz Basistakt, also auch AMD sollte sich nicht zu früh freuen. Da muss man schon beidseitig abwarten. Es ist aber schon klar, dass Tigerlake bei der ST Leistung deutlich vorne sein wird, während AMD bei der MT Leistung deutlich vorne sein wird, zumindest bei den 8 Kern Modellen.