Quote from: UmstrittenerNutzer on June 20, 2025, 12:29:39Probiert es selbst und bittet ChatGPT um das Bild eines Menschen, der mit linker Hand Gitarre spielt.
Geht nicht, weil Linkshänder eine Minderheit darstellen und der Computer diese statistisch ignoriert.
Oder fragt ihn, was die "IDA" aus dem Film "The world is not enough" ist. ChatGPT wird behaupten, es wäre eine T*rrororganisation von SPECTRE, weil das statistisch wahrscheinlich ist. Aber falsch.
Unabhängig von der Studie: Ich habe beides getestet, mit genau dem Prompt. GPT 4.1.
Ich erhielt ein sehr realistisches Bild eines Menschen, der die Gitarre mit links spielt. Und ChatGPT behauptet mitnichten, dass IDA eine Terrororganisation sei.
Dein Beitrag bestätigt eher, dass Menschen genauso gerne irgendetwas behaupten, was nicht der Wahrheit entspricht oder einfach nur die eigene Meinung auf andere projiziert (hier auf eine KI).
Der Unterschied zwischen KI und Menschen ist doch, dass erstere noch am Beginn ihrer Existenz steht, der Mensch tausende Jahre Vorsprung hatte. Warten wir doch einfach Mal ab, was in fünf bis zehn Jahren ist und ob KI dann immer noch fleißig Sachen erfindet.
Und ja, man sollte sich mit der Materie auskennen, bevor man ChatGPT heute an komplexe Aufgaben setzt. Zwei, drei kritische Nachfragen zu den Ergebnissen bringen oft deutlich bessere Antworten hervor als der Erstaufschlag. Hier ist der Mensch noch überlegen. Wo KI jetzt schon überlegen ist: Sofort "Fehler" zuzugeben und nicht darauf zu beharren, Recht zu haben.