Notebookcheck

Autor Thema: Das HP Envy x360 15 macht es Nutzern unnötig schwer, mehr RAM hinzuzufügen  (Gelesen 751 mal)

JKM

  • Multimedia NB
  • ***
  • Beiträge: 591
  • Karma: +2/-2
Restliche 2/3 erledige ich natürlich mit meinem Desktop.
Wie kann ich dann bis zu 12 Stunden am Tag am Tablet arbeiten, wenn 2/3 am Desktop erledigt wird?

Allerdings leben wir gerade in einer Umbruchsphase:
Und wie eben. Jeder halt auf seine Bedürfnisse.
Ich freue mich schon auf mein HP Envy 15-8Kern-Renoir um wieder ungeschränkt arbeiten zu können. Und diesemal mit Tablet-Option.

Nach der gefühlten 10-järhigen Stagnation tut sich gerade sehr viel. Einerseits im KI- und GPGPU sowie auf der andererseite der Architektur_Entwicklungen (Zen2, Zen3, Zen4, ... RDNA 1,2,3 ...) im Jahres-Rythmus. AMD starten mit KI wohl für das heuer angekündigte ROCm 4.0.

Selbst wenn Intel mit AMD überhaupt mithalten kann, und Nvidia sowieso voraus bleibt, glaube ich nicht, dass es in dieser Umbruchszeit es so viel Sinn macht, wenn man seine Geräte auf 7+ Jahre verwendet.

Da warte ich also gezielt, bis die Produkte Realität werden und keine Early-Adopter-Fallen sind. Ich will auch nicht mein Geld kurz vorher verpulvern.
Wollen wir hoffen, dass du nicht zu lange warten musst.

RobertJasiek

  • Gast
Du vermischst meine maximale Tabletnutzungszeit pro Tag mit meiner durchschnittlichen und die relativen Anteile verschiedener Computernutzungstätigkeiten mit den Nutzungsdauern je Gerät.

Windows: 100%
iPadOS: 33%

jeweil aller meiner verschiedenen Computernutzungstätigkeiten (bisher andere als offline KI-Gaming) sind möglich.

Dass ich dennoch auf ca. 5h/d Tabletnutzung komme liegt daran, dass es zeitlich viel einfache Tätigkeiten gibt, die ich am Tablet machen kann (aber nicht muss): einfaches (nicht: anspruchsvolles) Browsen, Lesen, Video gucken...

***

Vielleicht hast du Recht, dass es für bald neu Gekauftes weniger Sinn macht, die Geräte 7+ Jahre zu nutzen, als dies in den letzten ca. 20 Jahren (für mich) der Fall war. Man kann ja reevaluieren:)

***

Ich bin nicht firm mit den AMD-Schlagwörtern. Kannst du bitte erklären, was Renoir, Zen2, Zen3, Zen4, RDNA und ROCm sind? Bei Intel: was ist Foveros?

Nvidia hat Intels vormaliges Problem: schnell, aber heizend. Das wäre fein, wenn Nvidias GPUs lüfterlos mobil operieren könnten...!

JKM

  • Multimedia NB
  • ***
  • Beiträge: 591
  • Karma: +2/-2
Dass ich dennoch auf ca. 5h/d Tabletnutzung komme liegt daran, dass es zeitlich viel einfache Tätigkeiten gibt, die ich am Tablet machen kann (aber nicht muss): einfaches (nicht: anspruchsvolles) Browsen, Lesen, Video gucken...

Okay,
dann hört es sich so an, dass du ohne Akku-Tausch und Geräte-Kauf bis 2021 auf dein Wunder-Tablet warten wirst und bis dahin mit Einschränkungen und Nutzungs-Umlagerungen auf dein Supertablet warten wirst.

Ich bin nicht firm mit den AMD-Schlagwörtern. Kannst du bitte erklären, was Renoir, Zen2, Zen3, Zen4, RDNA und ROCm sind? Bei Intel: was ist Foveros?

Renoir ist AMDs-APU-Desgin, welche jährlich erneuert mit, mit momentan jährlich erneuerten CPUs- (Zen-Serie) & GPU-Architekturen (RDNA-Serie) von AMD. ROCm 4.0 ist die Software dazu, die mit der 4.0-Version eine volle von vielzahl an HPC und Deep-Learning-Programm-Unterstützung sein wird.

Intel hat zwar auch jährliche neue APU-Desgins, wäährend die großen CPU-&-GPU-Architektur-Entwicklungen eher im 2-Jährigen statt 1-Jährigen Rythmus kommen. Ein Meilenstein soll eben Tiger-Lake mit Gen12-Xe-GPU-Architketur sein, die aber eben ein Deep-Learning-Einheit dabei hat.

Nvidia ist momentan klar in der GPU-Architketur-Effizienz und -Technik vorne, die ihren neuen GPU-Architekturen 2-jährig bringen und bis Ende 2020 oder Mitte 2021 bringen sie die Next-Gens in 7nm. Bis Ende 2021 wird Nvidia vielleicht schon 5nm-GPUs bringen.

Zusammengefast.
AMD wird in den nächsten 18 Monate weiter enorme Notebook-Sprünge machen, und ihre enorme Notebook-Entwicklung wohl eher in TDP-Senkungen (Y-Serie & Tablet) gehen und immer Tablet-Fitter (2-to-1, Convertiel) werden. Mit RDNA2-Architektur beginnt so richtig AMDs KI-Ära.

Intel wird wohl nicht so große Sprüngen machen, außer sie beginnen erstmals seit vielen vielen Jahren uns zu überraschen. Immerhin hat Intel mit Tiger-Lake schon eine erste KI-Unit, wie es ARM AFAIK schon jetzt haben. Mit  Foveros ist eine Chip-Klebe-Stapel-Technik, die aufgrund der kurzen Signalwege große Effizienz-Steigerungen bringen, sowie enorme Kompaktheit geeignet eben für Tablet. AMD könnte vielleicht auch mal mit HBM-Technik (RAM-Speicher) ähnliches erreichen, aber eben deutliche  Akku-Laufzeiten verlängerungen bringen soll. Also, ein zusätzlicher Sprung zum jetztigen LPDDR4X-RAM. Intel hat diese für dich nutzbaren Techniken wie die KI-Unit in Notebooks und Foveros für Tablets praktisch eben jetzt schon. Und wer weiß, vielleicht bringt Intel 2021 noch extra Deep-Learning-Karten, wie damals mal Nvdia-Physk-Karten brachte.

Nvidia ist eben für dich interessant in KI vorne, und mit 14nm-Rückstand noch immer auf Augenhöhe mit AMD. Zwar wird AMD mit RDNA-GPU-Architekturn eher relativ zu Nvidia (gerade in Sachen KI) aufholen, aber Meiner Meiung wegen 7nm (2020) und 5nm (2021) generelle (wie AMD) auch noch enoreme Effizienz-Sprünge in der GPU-Desgin erreichen. Vielleicht geht sich mit 7nm-GPU-Nvidia dann ein Gaming-Notebook mit 1x 1080 TI-Performance aus, und dann mit 5nm-GPU mit 2x 1080 TX-Performance.

Zusammenfassung der Zusammenfassung:
1) Der AMD vs Intel/Nvidia-Kampf, bei dem AMD schneller als die Konkurrenz entwickeln kann, weil sie einerseits mit 5nm schneller in der Fertigung und mit Zen (CPU-Architektur) schneller als Intel und vielleicht mit RDNAx (GPU-Architektur = angeblich wie Zen-Überraschung) schneller als Nvidia entwickeln kann. Wobei die AMD-Offensive seit 2018 so einen richtigen Entwicklungs-Schwung nach der gefühlten 5-10 järhigen Geräte-Stagation brachte.

2) Abseits den AMD vs Intel/Nvidia-Kampf, alle mit vielen neue vorallem KI-Technologien am Markt kommen, während wohl Nvidia mit einem 14nm auf 5nm-Sprung in wohl nur 12-18 Monaten dann den größten Fertigungs-Sprung machen wird.

3) Der ARM vs x86-Kampf der sich gerade im 5W-TDP Ultra-Mobile so richtig aufbaut, weil AMDs und Intels Notebooks langsam mit weiteren EffizienzSteigerungen in diesen Markt mit High-Performance statt Low-Power reinkommen.

Die nächsten 24 Monate werden wohl Wegweisend in der IT-Branche werden, wo sich im Gesamten Markt abseits neuer Performance-Leader von alllen 4 Herstellern (ARM, AMD, Intel, Nvidia) verdammt viel tun wird.
« Letzte Änderung: Juli 01, 2020, 10:38:07 von JKM »

RobertJasiek

  • Gast
Vielen Dank für deine wie immer kenntnisreichen Ausführungen!

Nachfrage zu AMDs APUs: handelt es sich um SoCs mit getrennten Kernen oder sind CPU und GPU in einem Kern verschmolzen?

Für mich ist zZ Nvidia das KI-Mittel der Wahl wegen Geschwindigkeit und dafür optimierter Go-Software.

Nicht alles, wo AI draufsteht, ist auch geeignet. Abstrakte Brettspiele haben die höchsten Anforderungen. Deepmind/Google verwendete TPUs, aber GPUs tun es auch.

JKM

  • Multimedia NB
  • ***
  • Beiträge: 591
  • Karma: +2/-2
APUs, Acceleration Processing Unit, ist ein Marketing-Name für SoC. Es sind getrennte Units. Verschmolzen ist die FPU (Floating Point Unit mit Doppelter Genauigkeit [FP64]) aus denen vor 20 Jahren die GPU (einfachere Floating Point Unit damals mit Einfachere Genauigkeit [FP32]) zum Spielen enwickelt wurde. Mittlerweile sind die Grafikkarten mit FP64-Einheiten eben FP64-fähig (fur HPC-Supercomputer), sowie mit FP16-Kernen/Fähig eben Deep-Learning-Fähig, die mittlerweile mit Int4 und Int8-Einheiten erweitert wurden.

Intel CPUs sind genauso APUs, wie eben alle SoC.

AMD APU-Gedanke war der Unified-Memory-Controller sowie Memory-Kohärenz, wo die GPU & CPU gegenseitig auf den Speicher zugreifen konnte und deren Daten nutzen direkt konnte. Mittlereweile können das AFAIK alle bzw. AMD konnte damit keinen relevanten Nutzen ziehen.

Intel hatte ihre FPU in der CPU-Architektur ebenfalls schon FP16-Fähig im AFAIK im 1:2-Verhältnis (FP16 zu FP32) gemacht. Parallel hat AMD aber eine Deep-Learning Entwicklung mit der Xe-GPU, sowie am 3. Gleis eine Deep-Learning-Entwicklung auf einem Speziellen Deep-Learning-Architektur a la Nervana eingekaut über Movibius.

AMD wie Nvidia entwickeln Deep-Learning "nur" über ihre Universal-Computing-Unit a la Grafikkarte, wobei sowohl Nvidia und mittlerweile AMD dabei auch schon Zweigleisig fahren, indem der Größte Die-Monster (450-800mm²) eben ein Computing-Process-Unit ist, während die kleineren Dies (100-450mm²) die Grafik-Proessing-Units [GPU] sind. AMD  hat sogar mit cDNA eine eigene Computing-Prozess-Unit angekündigt, wobei wird noch nicht wissen, ob dies Marketing ist und die Die neu mehr Int4 & Int8 & FP64-Einheiten hat, oder tatsächlich eine Eigene Architektur, was nicht überraschend wird, weil ein dem Einheiten angepasstest Cash-System eben praktisch schon eine neue Architektur ist.

Nvidia geht diesen Weg schon länger, wenn bisher nur auf der GPU-Desgin-Einheiten-Ebene. Relativ gesehen wird AMD in kürze die großen Sprünge machen, weil sie erst jetzt mit KI (ab RDNA2 + ROCm 4) damit durchstarten, während Nvidia mit jeder Generation alle 2 Jahre interessante Technische Sprünge machte, wobei ein großer Fertigungs-Sprung auf 7nm und 5nm "kurz" bevorstehen.

KI kommt mit einer eigenen Einheit mit Tiger-Lake in die Intel-APU,
während man es bei AMDs Next-Gen-Renoir (Cezanne) noch nicht genau weiß, wobei zumindestens Navi (RDNA 1 oder 2?) bestätigt ist. Eventuell kommt Cezanne dann mit RDNA 2, welches ein KI eben mit der iGPU hat, also keiner reinen KI-Einheit ist.

Ich orientiere mich nach den Struktur-Verkleinerung, weshalb ich jetzt ein Envy 15 Convertile (7nm)-Notebook (auch zum Gelegenheitspielen/Browser-Gaming) als Basis kaufe. In 2 Jahren mit der 5nm-Fertigung erweitere ich dieses mit einem 2. Gerät bzw. Spezial-Gerät (High-End-Gaming-Notebook oder Ultra-Mobil-Notebook)

RobertJasiek

  • Gast
Lässt AMD 7nm bzw. dann 5nm bei TSMC fertigen? Wenn das fast alle außer Intel tun, wo gibt es da die Produktionskapazitäten? Baut TSMC neue Fertigungsstraßen?

JKM

  • Multimedia NB
  • ***
  • Beiträge: 591
  • Karma: +2/-2
Ja,
AMD fertigt bei TSMC, seit 7nm auch die CPUs (statt nur Konsolen & GPUs) und auch bei 5nm. Selche Rolle zukünftig Globalfoundries spielen wird, wissen wir momentan noch nicht, (weil die auch noch irgendwann eine 7nm oder 5nm-Fertigung bringen können.), aber TSMC könnte groß genug sein.

Nvidia wollte mehr zu Samsung Wechseln, die aber wohl etwas wieder zu TSMC zurückgehen.

TSMC baut mit jeder Struktur-Verkleinerung eine neue Fabrik, also neue Fertigungs-Straßen. Intel ersetzt eher die alten Fertigungs-Straßen durch neue.

TSMC lässt ja auch die Smarpthones fertigen, die mit 1,5 Mrd. Stück pro Jahr so 5 mal mehr ist als die 300 Mio. PCs pro Jahr. Eine Smarpthone-SoC (80-120mm²) ist auch nicht viel kleiner als eine PC-APU (120-150mm²). Also, wenn TSMC eine Gigafabrik mit 120-150.000 Wafer-per-Monat baut, dann in der heutigen Zeit in erster Linie für den Smartphone-Markt. Mit 1.000 Mafer-per-Monat kann man so 1-2% PC-Marktanteil erreichen.

TSMC hat die 5nm-Gigafabrik 2017-2019 gebaut und fährt sie 2020-2021 hoch, Nov-2019 die 3nm-Gigafab für eigentlich 2021 gebaut, die 2022-2023 hochgefahren werden soll, aber wegen Corona paar Monate verschoben werden soll.

Intel will im 4Q-2021 die erste 7nm-Produkte (GPU oder CPU?) in den Markt bringen und 2-4 neue 7nm-Fabriken (je 30.000 Wafer-per-Monat) starten. (Oder 2 Fabriken über 2022 rampen und 2 weitere über 2023?)

Bei Nvidia weiß man nicht so viel, weil die wohl zuerst Samsung in Focus hatten. Kürzlich gab TSMC die Orders bekannt, wobei AMD für 2020 erstmals mehr als Nvidia bei TSMC bestellte. 2021 deutlich mehr.

Man kann momentan nur viel & genaues über AMD sprechen, weil 5nm-TSMC schon längst für Apple hochgefahren wird. Seit paar Tagen wissen wir, das die Zen3-Verschiebung durch einen Bug in der Architektur entstand, wofür AMD ein B0-Fertigungs-Stepping (pro Stepping 3 Monate, A,B, C große Bugs ; A0, A1, A2 kleine Bugs) brauchte, welches Mitte 3Q dann in Massenproduktion gehen soll. Architetkur-Bugs haben generell keinen/kaum Einfluss auf die Next-Gen-Architektur-Entwicklungen, womit die Next-Gen-APU (Cazenne-7nm+ Zen3-RDNA1/2) trotzdem bei CES 2021 und 5nm-Zen4 so Mitte 2021 vorgestellt werden kann. cDNA, Zen3 und RDNA2 ist für 2H-2020 angekündigt, weil AMD damit wie mal angekündigte die 1,5+ Exoflop-Supercomputer ausstatten soll.

Tiger Lake soll wie Ice lake im August kommen.
Aus deiner Sicht wäre eigentlich Lakefield das interressantere Produkt für das Supertablet, was gerade getestet wird und wir die Akku-Laufzeiten noch nicht wissen.

RobertJasiek

  • Gast
Vielleicht kommen ja noch bessere Lakefield-Akkulaufzeiten. Ansonsten hat Tiger Lake in 4,5W die sehr vielversprechenderen Aussichten.

JKM

  • Multimedia NB
  • ***
  • Beiträge: 591
  • Karma: +2/-2
Vielleicht kommen ja noch bessere Lakefield-Akkulaufzeiten
Bisjetzt keinen wir AFAIK keine Akku-Laufzeiten.

Ansonsten hat Tiger Lake in 4,5W die sehr vielversprechenderen Aussichten.
Das wissen wir noch nicht.
Bisher hatte die Y-Serie immer bei 5W so 1,1-1,3 Ghz.
Plötzlich mit Ice-lake bei 9W so 1,0 Ghz, zwar mt +20% IPC aber mit 10nm. Im normalen Verlauf hätte er wohl 5 statt 9W gebraucht.

Irgendwas scheint mit der Fertigung gewaltig was schiefgelaufen zu sein. Denn 9W-TDP bzw. 9-12W-cTDP ist eigentlich keine Y-Serie mehr und fürs passive Kühlen eigentlich zu viel, weshalb Amber-Lake-Y noch von 7 OEM-Notebook-Hersteller verbaut wurde und Ice-Lake-Y (10nm+) nur mehr von EINEM OEM-Hersteller (Apple)

Ich tippe auf eine schlechte Fertigungs-Qualität, die eine extreme Spannungs-Senkung (sowie Hochtakte von 4 bis 5,5 Ghz) nicht zugelassen hat, welche aber beim Tiger Lake Y mit 10nm++ funktionieren könnte. Das würde dann +80% Effizienz bedeuten, womit Intel dann Effizienz-Teschnisch wieder auf AMD-Augenhöhe sein kann. (AMD hat +80% Effizienz gegenüber Ice-Lake angegeben, was sich auch in Tests zeigt)

Tiger Lake 10nm+ kann in 5W statt 9W kommen, oder auch nicht, was per Se kein Weltuntergang wäre, weil Intel praktisch parallel zu 7nm auch 10nm+++ angekündigt hat.
https://scr.wfcdn.de/21399/Intel-Roadmap-In-Moore-We-Trust-1576061393-0-12.jpg

Einzige Problematisch ist, dass die ++(+) Versionen schon ähnliche Effizienz-Werte haben, wie die nächste Struktur-Verkleinerung
https://www.pcgameshardware.de/screenshots/1280x/2019/11/2019-05-09_1-09-08-1030x579-pcgh.png
Damit dürfte man sich jetzt schon beim Intels 7nm-Prozess im 4Q-2021 eigentlich nicht allzuviel Hoffnung machen. (Beim AMDs 5nm sehrwohl, weil 7nm+ weniger eine große Effizienz-Steigerung ist, sondern eher die Einführung der EUV-Belichtungs-Technik)

Das könnte eben der Grund sein, warum Intels 10nm-Fertigung so ineffizient aussieht, obwohl dieser vielleicht wie 100% Effizienz wie geplant sein kann. Eben, weil Intel schon gegen AMD-Zen1 schon 10nm+ beim Kaby-Lake brauchte, um gegen AMDs Zen1-Quad-Cores (Raven Ridge) gerade noch vorne sein zu können. 14nm++ brachte noch höhere Takte, aber etwas weniger Effizienz, was sich in den Comet-Lake-Quads zeigt, die teils etwas schlechtere Effizienz-Werte als Kaby-Lake (10nm+) zeigt. Nur der 6-Kern-Comet-Lake ist ein völlige Ausreißer, der die Ausnahme der Regel bestätigt.

Ob für dich AMD interessant werden kann, hängt einerseits von Tiger-Lake (5 oder 9W) andererseits von AMD ab, ob sie Cezanne auch mit einer Y-Serie (5 oder 7W-TDP) gebracht wird. Oder gar erst mit 5nm, was dann in 18 Monaten für dich etwas spät wäre.

Ich denke, die ist noch garnicht bewusst, dass die nächsten 2 Jahren die intessantersten 2 Jahren werden können, die es in den letzten 2-3 Jahrzehnte gegeben hat.



RobertJasiek

  • Gast
Letztes Mal beeindruckte mich der Wechsel auf Doppelkern, wobei der praktische Wechsel von i3-530 (65W) auf den gleichschnellen i3-7100U (7W?) mit Computergehäuseverkleinerung auf 1/30 auch was hat. Dass es jetzt endlich wieder spannend wird ist mir schon klar.

JKM

  • Multimedia NB
  • ***
  • Beiträge: 591
  • Karma: +2/-2
Für mich war es 2009 der Netbook (LED, ("ULV"-)Atom-CPU)mit 1,2 kg und so 4 Stunden surfen über HSPDA, den ich mit einer SSD aufrüstete und in 30sec Win XP starten konnte und nach 60sec schon surfen konnte. Den hatte ich dann täglich dabei, vorallem beim Bahnfahren.

Damals war der Netbook so interessant, weil die Netbooks gegenüber den Notebook den Vorteil billiger ULV-CPUs, stromsparende LED-Displays und ein geringes Gewicht hatte. Das setzte die alten Zigelstein-Notebooks unter Druck, endlich mal die Notebooks zu Längerne Akku-Zeiten und leichte & dünnere Notebooks, weshalb die Netbooks dann verschwand, deren Entwicklung stehengeblieben sind.

Wegen AMD-RyZen sowie Xiomi & Microsoft & Co kommt wieder enormer Schwung, nachdem Apple es zwar vormachte, aber die OEM-Hersteller trotzdem eher stagnierten.

Nachdem AMD mit Radeon 5600M mit HBM2 gerade Ebeng gebracht hatte, würde ich es am sinnvollsten erwarten, wenn AMD zum 8-Kern-APU (15-45W) vielleicht auch einen 4/6-Kern-APU (5-10W) mit HBM zu bringen für den 1-to-2 und Y-Notebook-Markt sowie im Embedded-Markt, also primär dem passiven Markt. Das wäre praktisch das selbe wie Intels Foveror, der die CPU+Southbridge+DRAM geklebt & gestapelt hat. Wobei AMD die HBMs seitlich der APU (welche schon die Southbridge integriert hat) liegen und eigetnlich mehr Watt Wärmeenergie passiv abgeben kann.

Oder AMD überrascht ähnlich dem dem Renoir wieder mit einem Dual-System, also einer zweiten 4-Kern-CCX, um damit neben den 15W-Standard-Markt auch den 45W-Gaming-Markt performancemäßig sinnvoll abzudecken. Und zwar mit einem Dual-Memory-Controller System, um entweder Dual-DDR-RAM oder HBM2_Ram anbieden zu können.

Eine 2. ULV-APU würde eher schon mit 7nm+ Zen3 möglich sein, während eine DDR-RAM+HBM2-Anschluss_Kombination, falls das überhaupt möglich ist oder Sinn macht, eher mit 5nm möglich wäre.

 

 
C 2018 » Impressum     Sprachen: Deutsch | English | Español | Français | Italiano | Nederlands | Polski | Português | Русский | Türkçe | Svenska