Es gibt Kriterien, welche in erster Linie Präferenz sind. Z.B. Notch von "Abwertung auf unbenutzbares, unkaufbares Gerät wegen der Notch" bis "Unwichtiges Kriterium, da die Notch nicht wahrgenommen wird, sondern es zählt nur, was drumherum an Displayzuwachs besteht".
Es gibt andere Kriterien, die für alle Nutzer irgendeine Relevanz haben. Z.B. Preise, Geschwindigkeiten, Verarbeitungsqualität oder Akkulaufzeiten. Diese Kriterien sind für verschiedene Nutzer oder Tester verschieden wichtig. Um dennoch (anders als etwa die c't) eine Gesamtwertung zu erzeugen, muss eine Wichtung der Kriterien eingeführt werden. Z.B. wichtet NBC die Preise durchs Gewicht 0 (das heißt, Ignorieren), während für fast jeden Käufer die Preise ein sehr wichtiges Kriterium sind.
Mit fortschreitender Technik verändern sich Maßstäbe und Wertungen werden ab und zu mal angepasst.
Ich finde die NBC-Wertungen so außerordentlich wenig aussagekräftig und wenig übereinstimmend mit meiner Wichtungspräferenz, dass ich nicht genau untersucht habe, welche Wichtungen wie gut oder schlecht sind. Allerdings fällt es mir manchmal besonders auf.
Aktuell ist z.B. die AI-Wertung um Größenordnungen verfehlt. Da wird offenbar die NPU gemessen, aber die extrem viel wichtigeren dGPUs werden ignoriert. Zudem findet ein umfassender Test verschiedener Arten von AIs nicht statt und wird Training weitgehend ignoriert, während nur auf Inferencing meist nur von LLMs als nur eine Art von AI geguckt wird. Natürlich kommen so für Apple-Notebooks AI-Wertungen über 90% heraus, während eine Workstation mit einigen Nvidia-dGPUs nicht zeigen kann, dass sie dutzende, wenn nicht gar hunderte Mal schneller wäre als Apple-Notebooks (jeweils ausreichend Speicher vorausgesetzt). Wollte man auch Workstations eine angemessene Wertung ermöglichen, fielen bei Apple-Notebooks die AI-Wertungen unter oder nahe 0%. Ganz objektiv. Stattdessen aber nutzt NBC eine AI-Wertungskalibrierung, die der Feder von Hersteller-PR-Schreibern hätte entstammen können.
Natürlich kann man auch messen, dass teure Apple-Notebooks (die €6000 - €9000 - Klasse) mit reichlich Unified Memory (ausreichend Speicher vorausgesetzt) besonders gut beim LLM-Inferencing sind. Ein gutes AI-Wertungssystem muss u.A. Trainung und Inferencing bei LLMs und diversen anderen AI-Wertungen testen. Dann kann es Teilwertungen geben, wo teure Apple-Notebooks vor Preis-Berücksichtigung durchaus gut abschneiden dürften, aber nicht mehr in der AI-Gesamtwertung, weil Apple kein CUDA, CuDNN, TensorRT und keine CUDA- und Tensor-Kerne bietet, sondern auf Anwendungsportierung auf Metal angewiesen ist und dann immer noch keine CUDA- und Tensor-Kerne bietet.
NBC tut so, als könnten sie alles testen bis hin zu Workstations. Das NBC-Wertungssystem ist aber eher grob am Consumer-Mainstream orientiert und schafft nicht einmal das, weil erfolgreiche Hersteller-PR ins Wertungssystem gesickert ist.