Praxis & Anwendung
Dieselbe KI, andere Antwort — warum der Titel einer Seite das Ergebnis verändert
Ein CMS mit eingebauter KI zeigt, wie empfindlich Sprachmodelle auf Kontext reagieren — und was das für die Praxis bedeutet.
Kirby Copilot generiert Texte direkt im CMS. Aber dieselbe Anweisung produziert völlig unterschiedliche Ergebnisse — je nachdem, wie die Seite heisst. Ein Experiment mit überraschenden Erkenntnissen.
Das Experiment
Kirby Copilot ist ein Plugin, das KI-Textgenerierung direkt in das Content-Management-System einbaut. Man drückt einen Knopf, gibt eine Anweisung, und die KI schreibt — basierend auf dem, was sie über die Seite weiss.
Klingt einfach. Ist es auch. Bis man merkt, dass die KI nicht nur die Anweisung liest, sondern alles, was sie sehen kann. Und «alles» schliesst den Seitentitel mit ein.
Was passierte
Die Aufgabe war simpel: Einen Einführungstext für die Beratungsseite schreiben. Sachlich, ehrlich, ohne Marketing-Sprech. Die Anweisung war klar formuliert.
Das Ergebnis hing vom Seitentitel ab.
Seitentitel: «KI-Consulting»
Die KI produzierte klassischen Agentur-Sprech. Buzzwords, Versprechen, ein erfundenes Kundenzitat — eine komplette Halluzination. Niemand hatte ein Testimonial geliefert, aber der Titel «Consulting» aktivierte offenbar ein Muster: So klingt eine Beratungsseite, also generiere ich eine Beratungsseite. Komplett mit fiktiven Belegen.
Seitentitel: «AI Support»
Dieselbe Anweisung, derselbe Prompt, dieselbe KI. Das Ergebnis: sachlich, direkt, ohne Ausschmückungen. Kein Buzzword, kein erfundenes Zitat. Der Text las sich wie eine ehrliche Beschreibung dessen, was angeboten wird.
Warum das passiert
Sprachmodelle arbeiten mit Mustern. Sie haben während ihres Trainings Millionen von Texten gelesen — darunter Tausende von Consulting-Webseiten. Diese Seiten klingen alle ähnlich: grossspurig, versprechen-lastig, testimonial-geschmückt.
Wenn ein Sprachmodell den Titel «KI-Consulting» sieht, aktiviert das genau dieses Muster. Die KI halluziniert nicht aus Bosheit — sie tut, was sie statistisch für passend hält. Und für eine Consulting-Seite hält sie Marketing-Sprech für passend. Wie ein Koch, der «Gourmet» auf der Karte liest und automatisch Trüffel auf alles streut.
Was das für die Praxis bedeutet
Die Erkenntnis ist simpel, aber weitreichend: Der Kontext, den eine KI sieht, formt das Ergebnis mindestens so stark wie die Anweisung selbst.
Das gilt nicht nur für Kirby Copilot. Es gilt für jede KI-Anwendung, in der Kontext mitgeliefert wird — also für praktisch alle.
- Ein Dokument mit dem Titel «Verkaufspräsentation» wird andere Texte produzieren als eines mit «Sachstandsbericht»
- Ein Chat, der mit «Ich bin CEO eines Startups» beginnt, bekommt andere Antworten als einer mit «Ich bin Handwerker»
- Ein Prompt, der nach «innovativen Lösungen» fragt, aktiviert Buzzword-Muster — einer, der nach «praktischen Ansätzen» fragt, bekommt Substanz
Die Lehre: Ton-Direktiven als Steuerungshebel
Nach diesem Experiment haben wir die Copilot-Konfiguration angepasst. Nicht den Prompt — den Kontext.
Explizite Ton-Direktiven in der System-Konfiguration: «Schreibe sachlich, ohne Marketing-Sprache, keine erfundenen Zitate, keine Buzzwords.» Das Ergebnis war sofort besser — unabhängig vom Seitentitel.
Die Erkenntnis dahinter: Man kann die Muster, die ein Sprachmodell aktiviert, nicht verhindern. Aber man kann sie übersteuern. Explizite Stil-Anweisungen schlagen implizite Kontext-Muster. Nicht immer, aber zuverlässig genug.
Noch ein Nebeneffekt: Provider-Unterschiede
Im selben Experiment wurde sichtbar, dass verschiedene KI-Modelle unterschiedlich stark auf den Kontext reagieren. Claude Sonnet (Anthropic) produzierte den sachlichsten Output — knapp, direkt, wenig Ausschmückung. Claude Opus tendierte trotz gleicher Anweisung zu ausführlicheren, leicht promotionalen Texten. Gemini lag dazwischen.
Für den produktiven Einsatz in Kirby Copilot wurde deshalb Sonnet als Standard für Texte festgelegt — weil es am wenigsten dazu neigt, dem Kontext-Muster zu folgen und stattdessen die explizite Anweisung ernst nimmt.
Fazit
Wer KI produktiv einsetzt, muss verstehen: Die Anweisung ist nur die halbe Miete. Die andere Hälfte ist der Kontext — Seitentitel, Dokumentname, vorheriger Chatverlauf, sogar der Dateiname. All das fliesst in die Berechnung ein, ob man will oder nicht.
Die gute Nachricht: Man kann das steuern. Nicht durch bessere Prompts allein, sondern durch bewusste Gestaltung des Kontexts, in dem die KI arbeitet.
Dieses Experiment wurde im März 2026 mit Kirby Copilot 3.4.1, Claude Sonnet (Anthropic) und Gemini (Google) durchgeführt.