Praxis & Anwendung

Wenn die KI denselben Fehler zweimal macht — Memory, Feedback und ein kaputter Content-Folder

Warum KI-Agenten Fehler wiederholen, was Memory-Systeme dagegen tun, und wie ein harmloser Aufräumversuch zwei Blogartikel zerstörte.

KI-Agenten haben kein Gedächtnis zwischen Sitzungen — es sei denn, man baut ihnen eins. Ein Erfahrungsbericht über Memory-Dateien, Feedback-Loops und Murphy’s Law im Content-Management.

Was passiert ist

Ein ganz normaler Arbeitstag. Im VS Code läuft Claude Code, verbunden per SSH mit dem Webserver. Aufgabe: einen kleinen Fehler in den Blogartikeln suchen und beheben. Routine.

Die KI findet das Problem, korrigiert es — und zerschiesst dabei zwei Artikel. Nicht sichtbar, nicht sofort. Erst Stunden später, im Kirby-Panel: «No layout yet.» Wo vorhin noch ein kompletter Blogartikel stand, gähnt jetzt die Leere.

Die Diagnose

Kirby speichert Inhalte als Flat Files — Textdateien mit einem bestimmten Format. Das Layout-Feld enthält JSON: die gesamte Seitenstruktur mit allen Textblöcken, Bildern, Formatierungen. Dieses JSON hat strikte Regeln. Zeilenumbrüche müssen als \\n escaped sein, nicht als echte Newlines.

Die KI im Editor hatte beim Aufräumen echte Zeilenumbrüche in das JSON eingefügt. Für einen Texteditor sieht das harmlos aus — zwei Leerzeilen im Markdown. Für den JSON-Parser ist es ein fataler Syntaxfehler. Der ganze Layout-Block wird unlesbar, Kirby zeigt: nichts.

Zwei Zeichen. Zwei kaputte Artikel. Murphy’s Law in seiner reinsten Form: Was schiefgehen kann, geht schief — und zwar an der Stelle, die am harmlosesten aussieht.

Warum die KI den Fehler gemacht hat

Claude Code im Terminal ist ein leistungsfähiger Agent. Er kann Dateien lesen, schreiben, Shell-Befehle ausführen. Was er nicht hat: Wissen über die spezifische Struktur von Kirby-Textdateien. Für ihn sieht eine article.de.txt aus wie — eine Textdatei. Dass darin JSON eingebettet ist, das andere Escaping-Regeln hat als der umgebende Text, weiss er nicht.

Und genau das ist der Punkt: KI-Agenten verstehen Format, nicht Kontext. Sie sehen Syntax, nicht Semantik. Sie wissen, was ein Zeilenumbruch ist, aber nicht, dass dieser spezielle Zeilenumbruch in diesem speziellen Feld die ganze Seite zerstört.

Die Reparatur

Im Claude Web-Interface — dem anderen KI-Agenten, verbunden über MCP mit demselben Server — war die Diagnose schnell: Ein Python-Script, das die Dateien byteweise analysiert, die unescaped Newlines findet und korrigiert. Cache leeren, Panel neu laden, Artikel wieder da.

Zwei Agenten, ein Server, ein Problem: Der eine hat es verursacht, der andere hat es behoben.

Und jetzt: Wie verhindert man, dass es wieder passiert?

Hier wird es interessant. Denn hier trennt sich die Spreu vom Weizen im Umgang mit KI.

Das Problem: KI hat kein Gedächtnis

Ein Sprachmodell vergisst alles nach dem Ende einer Sitzung. Jeder neue Chat, jede neue Terminal-Session beginnt bei null. Der Agent, der heute den Content-Folder zerschossen hat, weiss morgen nichts mehr davon. Er würde denselben Fehler bedenkenlos wiederholen.

Das ist kein Bug. Das ist die Architektur. Sprachmodelle sind zustandslos — wie ein brillanter Berater mit totalem Gedächtnisverlust nach jedem Meeting.

Die Lösung: Memory-Dateien

Claude Code (der Agent im Terminal) hat eine CLAUDE.md-Datei im Projektroot. Diese Datei wird bei jedem Session-Start automatisch gelesen. Man schreibt rein, was der Agent wissen muss: Projektregeln, Warnungen, Konventionen. Dazu kann der Agent selbst Memory-Dateien anlegen — eine MEMORY.md, in der er sich Dinge merkt.

Nach dem heutigen Vorfall steht dort jetzt:

Content-Folder ist heilig: keine blinden Texteditierungen, JSON-Escaping in Layout-Feldern darf nie zerstört werden.

Das ist kein Vorschlag. Das ist eine permanente Regel, die bei jeder neuen Sitzung gelesen wird.

Claude Web (der Agent im Browser) hat ein anderes System. Hier generiert die KI im Hintergrund Memory-Einträge aus Gesprächen — Schnipsel, die sie für relevant hält. Der Nutzer kann Einträge einsehen, löschen, und über ein spezielles Tool auch aktiv hinzufügen. Weniger Kontrolle als bei der Datei im Dateisystem, aber dasselbe Prinzip: persistentes Wissen, das Sitzungen überlebt.

Zwei Systeme, ein Prinzip

Ob Datei oder Datenbank, ob manuell geschrieben oder automatisch extrahiert — das Grundprinzip ist identisch: Wer will, dass eine KI aus Fehlern lernt, muss ihr ein Gedächtnis bauen. Von allein passiert das nicht.

Und das unterscheidet produktive KI-Nutzung von der Spielerei: Nicht der einzelne Prompt macht den Unterschied, sondern das System dahinter. Die Regeln, die Feedback-Loops, die Memory-Strukturen. Das unsichtbare Gerüst, das dafür sorgt, dass Fehler genau einmal passieren.

Die Lehre

Der Content-Folder eines CMS ist kein Spielplatz für KI-Agenten. Was wie eine harmlose Textdatei aussieht, ist ein serialisiertes Format mit Regeln, die ein Sprachmodell nicht kennt — es sei denn, man bringt es ihm bei.

Die Regel ist jetzt einfach: content/ nur über das Kirby-Panel oder über kontrollierte MCP-Schreibzugriffe ändern. Nie über blinde Suchen-und-Ersetzen-Aktionen aus einem Editor-Agenten heraus.

Fehler machen ist menschlich. Und KI-isch. Sie zu wiederholen ist vermeidbar — wenn man versteht, wie die Systeme funktionieren.


Dieser Vorfall ereignete sich am 16. März 2026. Beide Agenten — Claude Code im Terminal und Claude Web über MCP — arbeiten auf demselben Server. Die Memory-Regel ist permanent gespeichert.

Welche Tools diesen Workflow ermöglichen — und warum weniger davon mehr Kontrolle bedeutet — beschreibt der Beitrag Weniger Tools, mehr Kontrolle.