Das als ein KI gerät zu vermarkten ist schwachsinn, zumindest nach meiner Erfahrung. Eine 5070 Laptop hat doch nur 8GB VRAM. Da passen nur kleinste (sprach-)Modelle lokal rauf. Und bei solchen kleinen Modellen (wie zB gemma3:4b) ist selbst CPU+RAM ausreichend schnell, um innerhalb kurzer Zeit eine Antwort zu bekommen. Kleine KI Sprachprogramme, die lokal laufen & auf den GPU VRAM passen sind also effizient genug, um sie auch gleich über Prozessor +RAM (oder integrierte GPU+RAM) laufen zu lassen. Größere Modelle (20GB+), bei denen es mit CPU+RAM mehrere Minuten dauert, bis langsam eine antwort generiert wird, passen aber nicht auf den VRAM.
Kurz, da, wo bei lokaler KI (nach meiner Erfahrung) eine dezidierte GPU hilfreich ist, ist der Laptop nicht geeignet (zu wenig VRAM). Dort, wo der VRAM ausreicht, braucht man keine dezidierte GPU.
Wenn man dies bedenkt, auf den Preis schaut (ab 3000€!) ist das schon dreist.
Anders als viele andere halte ich KI aber nicht grundsätzlich für eine reine Blase. Was lokale KI Sprachmodelle heute schon auf Laptops können, ist beeindruckend. Aber NPU hab ich noch nie genutzt, wird (außer vlt etwas von Microsofts überteuertem Copilot Mist) von allen mir bekannten Modellen/Umsetzungen nicht unterstüztz.
Dieser Marketing Mist ist irreführend und erklärt den Überdruß von Verbrauchern an KI.
(Schlechte Qualität/unzuverlässigkeit trägt sicher auch etwas dazu bei!)