News:

Willkommen im Notebookcheck.com Forum! Hier können Sie über alle unsere Artikel und allgemein über notebookrelevante Dinge diskutieren. Viel Spass!

Main Menu

Post reply

The message has the following error or errors that must be corrected before continuing:
Warning: this topic has not been posted in for at least 120 days.
Unless you're sure you want to reply, please consider starting a new topic.
Other options
Verification:
Please leave this box empty:
Shortcuts: ALT+S post or ALT+P preview

Topic summary

Posted by Redaktion
 - December 08, 2025, 12:52:06
Chatbots haben notwendigerweise mehrere Schranken eingebaut, die sie davon abhalten gefährliche, beleidigende oder sonstwie unerwünschte Antworten zu liefern. Aber Forscher und Hacker haben gezeigt, dass KIs trotz diverser Patches sehr anfällig gegenüber bestimmter Eingaben sind, die diese Schranken umgehen können. Die Grundlagen kann man spielerisch und sicher über ein Gandalf-Spiel im Netz üben.

https://www.notebookcheck.com/Einsteiger-Guide-zu-KI-Jailbreaks-sicher-ueben-mit-der-Gandalf-Challenge.1180598.0.html