News:

Willkommen im Notebookcheck.com Forum! Hier können Sie über alle unsere Artikel und allgemein über notebookrelevante Dinge diskutieren. Viel Spass!

Main Menu

Post reply

Other options
Verification:
Please leave this box empty:
Shortcuts: ALT+S post or ALT+P preview

Topic summary

Posted by Redaktion
 - December 08, 2025, 12:52:06
Chatbots haben notwendigerweise mehrere Schranken eingebaut, die sie davon abhalten gefährliche, beleidigende oder sonstwie unerwünschte Antworten zu liefern. Aber Forscher und Hacker haben gezeigt, dass KIs trotz diverser Patches sehr anfällig gegenüber bestimmter Eingaben sind, die diese Schranken umgehen können. Die Grundlagen kann man spielerisch und sicher über ein Gandalf-Spiel im Netz üben.

https://www.notebookcheck.com/Einsteiger-Guide-zu-KI-Jailbreaks-sicher-ueben-mit-der-Gandalf-Challenge.1180598.0.html