News:

Willkommen im Notebookcheck.com Forum! Hier können sie über alle unsere Artikel und allgemein über Notebook relevante Dinge disuktieren. Viel Spass!

Main Menu

ChatGPT vs. Gemini vs. Grok: Google ist laut Studie weniger irreführend, doch KI-Fehlinformationen haben sich verdoppelt

Started by Redaktion, September 12, 2025, 18:41:56

Previous topic - Next topic

Redaktion

Anders als in früheren Jahren generieren KI-Chatbots nun zu sämtlichen Nachrichtenfragen, die an sie gerichtet werden, Antworten und Informationsschnipsel. Leider bedeutet dies auch, dass die Zahl der nachweislich falschen Antworten gestiegen ist – mit Ausnahme eines einzigen KI-Tools.

https://www.notebookcheck.com/ChatGPT-vs-Gemini-vs-Grok-Google-ist-laut-Studie-weniger-irrefuehrend-doch-KI-Fehlinformationen-haben-sich-verdoppelt.1113187.0.html

Rapha

Quote from: HSGTM STM on September 12, 2025, 19:39:36Von wegen  irreführend und KI-Fehlinformationen haben sich nicht verdoppelt weil KI Chats alle richtig Antworten.

Was hast Du geraucht? 🤔 GPT-5 bspw. schreibt extrem oft völligen Schwachsinn, was er erst dann korrigiert wenn man ihn als Lügner betitelt und Bestrafung androht.
Völlig egal was Du über Dich und andere denkst – Du wirst immer Recht behalten.

HSGTM STM

Von wegen  irreführend und KI-Fehlinformationen haben sich nicht verdoppelt weil KI Chats alle richtig Antworten.

Turther

FAKE NEWS!!!:
�Die von Ihnen gezeigte Rangliste mit den konkreten Prozentzahlen ist nicht in den gefundenen seriösen Quellen enthalten. Sie könnte aus einer kleinen, thematisch sehr spezifischen oder unbestätigten Untersuchung stammen. Das Fehlen einer klaren, breit zitierten Quelle für diese spezifischen Zahlen macht das Ranking wenig glaubwürdig. Die tatsächliche Glaubwürdigkeit von KI-Modellen ist komplexer und variabler als eine einfache Prozentzahl.

Werner007

Naja, ich finde die KI Bots funktionieren schon richtig, auch mit falschen Antworten. Auch ich gebe auf eine Frage, zu der ich die Antwort nicht genau kenne, eine ungefähre Antwort. Das ist einfach normal. Auch sollte man bei Menschen deren Antwort stets hinterfragen. Ich finde es hat alles seine Richtigkeit.

Gerd N.

Nun, sie schreiben am Ende ihres Artikels ja selbst, dass nicht die Bots das Problem sind sondern die Artikel, mit denen sie 'gefüttert' werden. Die Bots scheinen also schon gut zu funktionieren!
Wass die Inhalte aus denen sie lernen betrifft, so ist da vieles mit Vorsicht zu genießen und zu hinterfragen. Schließlich versucht jede Seite (egal worum es geht) die Konsumenten zu manipulieren. Sei es durch Falschmeldungen oder auch durch falschen Kontext bzw das Weglassen von Informationen! Auch das bewerten von Quellen für die Informationsbeschaffung stellt gewissermaßen schon eine Manipulation da.
Alles in allem kann man also sagen, nicht die Bots machen die Falschaussagen sondern die Menschen, die ihre Wahrheit durchdrücken wollen, was wirklich sehr traurig ist!

Rinna133

Okay, woah. So, less misleading... but double the misinformation? That's... concerning, to say the least. It's like, these AIs are learning how to lie better, not necessarily being better. Makes you wonder what's actually being optimized for. Reminds me of flappy bird, actually. Simple concept, brutally effective at frustrating you. Maybe that's the problem...we're prioritizing "engagement" over, y'know, truth. I don't know, just a thought. Gonna go ponder the existential dread now. Thanks for the article!

Quick Reply

Name:
Email:
Verification:
Please leave this box empty:

Shortcuts: ALT+S post or ALT+P preview