Das kann man nur mit 2 Worten beschreiben: Pure Dummheit.
ChatGPT ist ein WERKZEUG – wer dort wichtige Dinge aufbewahrt, dem ist nicht mehr zu helfen. Es gibt so viele gute MarkDown Tools – sogar kostenlos (z.B. Obsidian) – die perfekt für LMM-Ergebnis-Archivierung geeignet sind.
Diese Backup Funktionen funktionieren mehr schlecht als recht: Problem ist und bleibt der Kontext und das Kontext window. Wichtiger Kontext geht regelmäßig verloren - und da hilft oft auch keine Claude.md File oder Dokumentation: der Kontext, dass es eine Doku gibt geht genauso verloren!
Ich nutze Claude Code jetzt seit 4 Monaten und habe massiv Geld verbrannt - Backups von Dateien werden manchmal angelegt NACHDEM die Datei zum ersten Mal angefasst wurde. Auch wenn es quasi in jeder 10. Nachricht übermittelt wird, wie und wann Backups anzufertigen sind.
Wenn man dieses Ding im Automatik Modus laufen lässt, muss man schon ganz genau hinschauen was man automatisch erlaubt und was nicht. Besonders, wenn es dann um Remote commands via SSH geht - da hilft das native Feature nicht, wenn man bestimmte Kommandos nicht automatisch erlauben will, oder man muss sich wirklich ein System mit Skripten aufbauen.
Zwei Jahre Arbeit waren durch einen Klick weg – zumindest beschreibt dies Professor Marcel Bucher in einem Artikel auf Nature. Er schlussfolgert, dass ChatGPT ein Risiko für nachhaltige Arbeit sei. Aber der Chatbot bietet eine Backup-Funktion, die wohl vom Forscher nicht genutzt wurde.