Notebookcheck Artikel => Sonstige NBC Artikel => Topic started by: Redaktion on December 08, 2025, 12:52:06
Title: Einsteiger-Guide zu KI-Jailbreaks – sicher üben mit der Gandalf-Challenge
Post by: Redaktion on December 08, 2025, 12:52:06
Chatbots haben notwendigerweise mehrere Schranken eingebaut, die sie davon abhalten gefährliche, beleidigende oder sonstwie unerwünschte Antworten zu liefern. Aber Forscher und Hacker haben gezeigt, dass KIs trotz diverser Patches sehr anfällig gegenüber bestimmter Eingaben sind, die diese Schranken umgehen können. Die Grundlagen kann man spielerisch und sicher über ein Gandalf-Spiel im Netz üben.