Vielleicht sollte für die Normalos dazu geschrieben werden, warum ein Gerät plötzlich mit 128 GB RAM getestet wird: Ein aktuell großes Theme ist das Thema AI bzw. LLMs. Wie ChatGPT, nur lokal und privat. Die besten/großen LLMs [die man downloaden und lokal bzw. privat betreiben kann] sind open weigt, die kleinen sind sogar open source (für die Benutzung an sich aber irrelevant). Open weight LLMs werden immer besser und die besten sind jetzt besser, als ChatGPT es noch vor 0,75 (9 Monaten) bis 1,5 Jahren war. Geladen können die LLMs vom huggingface.co oder automatisch durch Programme wie LM Studio (ist aber nur ein Wrapper für llama.cpp (das Herz für viele Programme/Wrapper), das auch eine Browser UI hat). Geschwindigkeit: VRAM (also GPU) > RAM > SSD. 128 GB RAM sind das absolute Minimum für gute LLMs und nicht genug für bessere open weight LLMs (hier bräuchte man 256 GB RAM oder sogar 512 GB RAM). Eine LLM kann man auch von einer SSD aus betreiben, aber die Geschwindigkeit wäre extrem langsam.
Aktuell kommen fast alle LLMs als MOE raus und laufen deswegen auch schnell über den RAM (der Nachteil ist die größere Dateigröße, aber da viel RAM immer noch deutlich günstiger ist als viel VRAM, ist alles gut). Wenn viel Text an die LLM gegeben wird, komm das post processing (pp) zum Gewicht und eine NVIDIA GPU hilft hier immer noch deutlich. AMD's neueste Architektur, RDNA4, hat immer noch keine Tensor Cores und das pp ist langsamer.
Der RAM in diesem Notebook ist über 128-bit (2*64-bit, dual-channel) verbunden und entsprechend nur halb so schnell wie ein "Strix Halo" System es wäre (256-bit bzw. quad-channel, deswegen ist ein System mit einem "Strix Halo"Chip teurer (und die iGPU ist auch besser, was beim pp hilft).