Mich stört hier mal wieder die Diskrepanz zwischen Studie und der "journalistischen" Interpretation. Die Studie hat gefragt: Wie reagieren Sprachmodelle bei der Entscheidungsfindung und welchen Einfluss haben Rückfragen des Fragestellers? Der "Journalist" macht daraus: Wie zuverlässig sind KI-Ratgeber bei persönlichen Fragen?
Das eine hat zwar nichts mit den anderen zu tun, die "journalistische" Frage stellt Implikationen, welche die Studie gar nicht anfassen wollte und morgen wird sich die gleiche Redaktion wieder beschweren, dass die bösen, bösen Leser mehr auf "KI" vertrauen als der seriöse(sic!) Berichterstattung - aber solche "journalistischen" Headline, die alles vier Aspekte gleichzeitig implizieren, haben an der Erwartungshaltung der Leser natürlich absolut keinen Anteil.
Große Sprachmodelle wie GPT-4o oder Claude-3.5 werden zunehmend als KI-Ratgeber bei Lebensentscheidungen eingesetzt. Eine neue Studie des RECAP-Programms zeigt jedoch, dass auch fortschrittliche Modelle in kritischen Szenarien zu Zustimmungstendenzen und Fehleinschätzungen neigen.