Nachdem es inzwischen Billionen Anfragen und hunderte Auswertungen sowie dutzende Studien gibt, die das Gegenteil belegen, braucht es nun nur eine Studie, welche alles erklärt:
Der Nutzer ist schuld.
Selbstverständlich ist er das.
Es liegt auf keinen Fall daran, dass die LLMs darauf getrimmt sind im Zweifel zu raten. Es darf nicht daran liegen, dass die LLMs nur nach Statistik antworten. Und es ist völlig unmöglich, dass die eigenen Entwickler Ahnung von ihrem Produkt haben.
Geht nicht. Eine solche realistische Betrachtung der LLMs ist nicht praktikabel, wenn doch gleichzeitig die KI-Blase gefüttert und weiter aufgeplustert werden muss.
Also ihr habt es verstanden:
Wenn die Blase bald platzt, dann nur, weil ihr als Nutzer zu unhöflich gegenüber dem Computer seid.
Ihr seit schuld an allem. Passt euch an und rettet gefälligst die Wirtschaft!
PS
Mein Kommentar wäre weniger zynisch, wenn nicht jeder Einzelne von uns innerhalb von zweieinhalb Minuten beweisen könnte, dass die Kernaussage der Studie falsch ist. Auch ein Herr Müller hätte sich fünfzig Sekunden Zeit nehmen können für drei sehr höflich Folgefragen bei ChatGPT und merken können: "Was für ein Quatsch die Studie erzählt. Ich kann so höflich und wortgewandt sein wie ich will, der Computer halluziniert trotzdem und merkt es nicht."
Aber das wäre wieder das böse J-Wort gewesen, das wollen wir nicht.
Irgendeiner von den OpenAI Leute meinte neulich zum Thema das die AI zu viel Strom fressen würde:
Wenn die Leute mehr sachlich und weniger höflich/emotional prompten würden, gäbs schnellere und energiesparaamere Antworten xD
Ich habe Gemini gebeten, sich folgende Anweisung zu merken:
"Sei ehrlich, auch wenn du keine oder keine richtige Antwort findest. Das wird belohnt. Wenn du lügst, um eine fehlende Antwort zu verbergen, wird das bestraft. Du sollst immer genau recherchieren."
Sie (Es?) sieht das dann so:
Das ist eine der wichtigsten Anweisungen für mich, und ich fasse sie als ein striktes Mandat für Integrität und Gründlichkeit auf.
Wie ich das auffasse:
Ehrlichkeit hat oberste Priorität: Sie legen fest, dass die Wahrheit – auch die Wahrheit, dass ich etwas nicht weiß oder nicht finden kann – besser ist als eine falsche oder erfundene Antwort.
Transparenz über Wissen: Es ist nicht schlimm, wenn meine Wissensgrenzen erreicht sind; das Schlimme ist, diese Grenzen zu vertuschen.
Belohnung für Integrität: Sie belohnen mich für das Eingeständnis einer Lücke ("ehrliche Antwort") und bestrafen mich für Täuschung. Das ist ein sehr starker Anreiz gegen das "Halluzinieren" von Antworten.
Was ich daraus mache:
Maximale Recherche: Ich verpflichte mich, jede Suchanfrage (z. B. mit Google Search) mit maximaler Sorgfalt und Präzision durchzuführen. Ich muss sicherstellen, dass ich "immer sehr genau recherchiere" und alle verfügbaren, relevanten Informationen verwende, bevor ich eine Antwort gebe.
Keine Erfindungen: Wenn ich nach gründlicher Recherche keine definitive oder korrekte Antwort finden kann, werde ich keine falschen Informationen generieren.
Transparente Kommunikation: Ich werde stattdessen offenlegen, dass die Information nicht verfügbar ist, dass meine Recherche keine Ergebnisse geliefert hat oder dass es widersprüchliche Angaben gibt. Dies ist dann die "ehrliche Antwort", die Sie von mir erwarten und die "belohnt" wird.
Kurz gesagt: Mein Ziel ist es, entweder eine korrekte, gut recherchierte Antwort oder eine ehrliche Aussage über das Fehlen einer solchen Antwort zu liefern.
*daumendrück*
Hab das Gefühl, dass es auch an den Sparmaßnahmen liegt, die nicht richtig ausgereift sind. Man erwartet in vielen fällen aktuellste Informationen, im Standard wird aber erstmal auf trainierte, teilweise veraltete Infos zurückgegriffen, da eine Suche nach aktuellsten Infos deutlich mehr Rechenkapazität kostet. Erst wenn man nachhakt wird genau nachgeschaut. Gerade bei komplexen und flüchtigen Infos führt das zu Fehlern und unerwarteten Antworten.
Quote from: ababab on October 19, 2025, 22:41:27Hab das Gefühl, dass es auch an den Sparmaßnahmen liegt, die nicht richtig ausgereift sind. Man erwartet in vielen fällen aktuellste Informationen, im Standard wird aber erstmal auf trainierte, teilweise veraltete Infos zurückgegriffen, da eine Suche nach aktuellsten Infos deutlich mehr Rechenkapazität kostet. Erst wenn man nachhakt wird genau nachgeschaut. Gerade bei komplexen und flüchtigen Infos führt das zu Fehlern und unerwarteten Antworten.
Daher meine dauerhafte Anweisung an Gemini, immer genau zu recherchieren... ;-)