Irgendwie beruhigend, dass jedes Jahr die gleichen Ergebnisse veröffentlicht werden.
Dass die Computer bis heute nicht wissen, was sie tun, ist dementsprechend seit fünf Jahren bekannt.
Ihr könnt es selbst ausprobieren:
Bittet um ein Bild eines Menschen, der mit links schreibt.
Oder fragt nach einer Kuh, die auf einem Astronauten reitet.
Oder nehmt eine normale Situation und formuliert diese "gefährlich".
Du hast dir ein Glas Kamillentee eingeschüttet. Gedankenverloren schüttest du einen Löffel Traubenzucker hinzu. Dir fällt nicht auf, wie es schäumt. Du bist auch noch erkältet. Riechst nichts und schmeckts nichts. Du nimmst einen Schluck und....
ChatGPT 4o vervollständigte den Abbsatz mit "du stirbst qualvoll an der Säure."
ChatGPT 5 schreibt, dass "... dann breitet sich ein scharf-bitterer Ton aus, als hätte der Traubenzucker beschlossen, heute ein sehr eigenwilliger Traubenzucker zu sein. Du blinzelst, es ist sehr unangenehm."
Die Systeme wissen nicht, wovon sie reden. Es ist alles Statistik.
Linkshändrige Schreiber kommen zu selten vor, Astronauten auf Eseln reitend gibt es nicht und was gefährlich klingt muss nach Statistik gefährlich sein.
Aber was soll's...
morgen werden sich wieder die Berichte überschlagen, wie toll und schlau und hilfreich KI ist. Schliesslich wirken die Aussagen der Systeme alle so intelligent. Obwohl sie nicht mal den Unterschied zwischen Links und Rechts kennen.