QuoteMoonshot AI gehört zu einer wachsenden Zahl chinesischer Anbieter, die eigene KI-Modelle entwickeln und öffentlich zugänglich machen.
So ist es, China dominiert gerade bei den open weights LLMs (nicht zu verwechseln mit open source LLMs, wo z.B. auch die Trainingsdaten zugänglich sind) (Moonshot AI (Kimi K2), DeepSeek AI, Qwen, ..). Hoffentlich kommt noch von META was, LLama-4 is ja nicht so.
Das einzige Problem mit allen 1T (trillion) bzw. 1000B Parameter Modells/LLMs, ist, dass man teure Server-Hardware benötigt, um diese selber mit der entsprechenden Geschwindigkeit (Tokens pro Sekunde), hosten zu können. 1T und 8-bit pro Parameter (Kimi K2 native ist in 8-bit, weil basiert auf der DeepSeek-3 Architektur, andere LLMs sind meist in 16-bit pro Parameter) = 1[T]*10^12[Billionen]*1[Byte pro Parameter]/10^9[Umrechnung zu GB] = 1000 GB (oder einfach merken: In 8-bit sind 1000 B Parameter = 1000 GB). AMD Epyc Zen 5 Server Mainboard mit 2 CPU Sockets, für nochmal eine Verdoppelung der RAM-Bandbreite, wo jede CPU 12-channel DDR5 hat + eine oder mehrere RTX PRO 6000 (96GB VRAM) GPUs zum schnellen prompt processing und man ist dabei. Bei den Zen Server-CPUs muss man darauf achten, dass "Socket count"="2P" ist. Die RAM-Bandbreite ist entscheidend, wenn man nicht schnelle tokens/second haben will und nicht ewig auf eine Antwort dieser 671B-1000B LLMs warten will, deswegen evtl. eher ein Dual-Socket-Mainboard holen.