Quote from: HSGTM STM on September 12, 2025, 19:39:36Von wegen irreführend und KI-Fehlinformationen haben sich nicht verdoppelt weil KI Chats alle richtig Antworten.
Was hast Du geraucht? 🤔 GPT-5 bspw. schreibt extrem oft völligen Schwachsinn, was er erst dann korrigiert wenn man ihn als Lügner betitelt und Bestrafung androht.
Von wegen irreführend und KI-Fehlinformationen haben sich nicht verdoppelt weil KI Chats alle richtig Antworten.
FAKE NEWS!!!:
�Die von Ihnen gezeigte Rangliste mit den konkreten Prozentzahlen ist nicht in den gefundenen seriösen Quellen enthalten. Sie könnte aus einer kleinen, thematisch sehr spezifischen oder unbestätigten Untersuchung stammen. Das Fehlen einer klaren, breit zitierten Quelle für diese spezifischen Zahlen macht das Ranking wenig glaubwürdig. Die tatsächliche Glaubwürdigkeit von KI-Modellen ist komplexer und variabler als eine einfache Prozentzahl.
Naja, ich finde die KI Bots funktionieren schon richtig, auch mit falschen Antworten. Auch ich gebe auf eine Frage, zu der ich die Antwort nicht genau kenne, eine ungefähre Antwort. Das ist einfach normal. Auch sollte man bei Menschen deren Antwort stets hinterfragen. Ich finde es hat alles seine Richtigkeit.
Nun, sie schreiben am Ende ihres Artikels ja selbst, dass nicht die Bots das Problem sind sondern die Artikel, mit denen sie 'gefüttert' werden. Die Bots scheinen also schon gut zu funktionieren!
Wass die Inhalte aus denen sie lernen betrifft, so ist da vieles mit Vorsicht zu genießen und zu hinterfragen. Schließlich versucht jede Seite (egal worum es geht) die Konsumenten zu manipulieren. Sei es durch Falschmeldungen oder auch durch falschen Kontext bzw das Weglassen von Informationen! Auch das bewerten von Quellen für die Informationsbeschaffung stellt gewissermaßen schon eine Manipulation da.
Alles in allem kann man also sagen, nicht die Bots machen die Falschaussagen sondern die Menschen, die ihre Wahrheit durchdrücken wollen, was wirklich sehr traurig ist!
Okay, woah. So, less misleading... but double the misinformation? That's... concerning, to say the least. It's like, these AIs are learning how to lie better, not necessarily being better. Makes you wonder what's actually being optimized for. Reminds me of flappy bird, actually. Simple concept, brutally effective at frustrating you. Maybe that's the problem...we're prioritizing "engagement" over, y'know, truth. I don't know, just a thought. Gonna go ponder the existential dread now. Thanks for the article!