QuoteEine Schwachstelle des Konzepts ist der verlötete RAM - 32 GB reichen für diese leistungsstarke iGPU einfach nicht aus. Wir empfehlen daher, die Low-End-Konfigurationen des ZBooks zu meiden, das Konzept macht erst ab 64 GB und mehr Sinn.
Dass verlötet ist bei LPDDR5X-8533 klar. Die 32 GB sind jedoch in der Tat das Problem. 64 GB RAM müssen es allermindestens sein, und selbst dann sind nur 75% nutzbar (zumindest ist das unter Windows bei der 128 GB RAM Version so)?
"Strix Halo" ist ein 256-bit / quad-channel chip (4 * 64-bit), nur "Unified Memory" zu schreiben, hilft hier keinem noob. Der gerade als solcher 128 GB RAM bieten kann (dual-channel geht bis 64 GB RAM, wenn ich richtig informiert bin, und selbst wenn mehr, wird die Bandbreite bei dual-channel zum nervigen Flaschenhals). AMD bewirbt "Strix Halo" extra für die (lokale) LLM Ausführung, hier nur 32 GB anzubieten ist eine Clownshow.
Auch sollte dazu geschrieben werden: Dass 256-bit ein guter Anfang sind, wenn es um Bandbreite (GB/s) und die mögliche RAM-Kapazität geht, denn eine LLM läuft lokal ca. doppelt so schnell, als bei einem klassischen dual-channel / 128-bit, PC/Notebook, dazu kommen noch die höheren MT/s (8533). Nur machen die 32GB RAM das Ganze in der Tat kaputt: Das OS braucht RAM (wieder die 25% ?) und von den 32 GB bleiben dann nur 24 GB RAM übrig.
Bei der 128GB RAM Version hat jemand unter Linux glaube 110GB RAM für eine LLM nutzen können.
Wenn es nicht um die GPU-Leistung geht, sondern um die lokale LLM-Ausführung, würde ich mir eher ein 64 GB RAM dual-channel (2 * 64-bit) Notebook holen, als dieses hier, denn wenn die LLM nicht in den RAM passt, läuft sie extrem langsam (von der SSD).
Persönlich sind mir die theoretischen 256 GB/s (200 GB/s praktisch, was normal ist) und die nur 128GB RAM nicht genug bzw. der Unterschied zu einem dual-channel System ist nur 2x (der Preis ist noch nicht mal das Problem (außer natürlich er wäre doppelt so niedrig, dann könnte man es fast schon aus Spaß kaufen), man wäre einfach zu limitiert hinsichtlich der LLM, die man laufen lassen kann).
Daher jetzt zum Gerücht (z.B. notebookcheck.net/Powerful-Zen-6-Medusa-Halo-iGPU-could-challenge-desktop-GPUs-with-20-more-CUs-and-50-wider-bus.971869.0.html): Der "Strix Halo" Nachfolger, "Medusa Halo", soll ein 384-bit Chip werden, also 50% höhere Bandbreite und 50% mehr RAM, das wird dann deutlich interessanter, wenns um LLMs geht. Richtig Interessant wäre ein Chip, der die LLM DeepSeek-V3 bzw. die thinking Variante -R1 inferenzen könnte, aber gut, kommt von AMD auch iwann? (Apple hat den dafür nötigen 1024-bit Chip schon seit dem "M1 Ultra", der im Mac Studio Verwendung findet, und der M3 Ultra geht jetzt bis zu 512 GB RAM, also linear mehr zu dem, was AMD aktuell bietet (256-bit und 128 GB RAM)).
Möglicherweise fehlt hier der Markt.