Hintergrund & Analyse

Wer steuert eigentlich die KI — du oder die Direktive?

Wie Skills und Direktiven das Verhalten eines Modells formen — und warum man fremde davon prüfen sollte, bevor man sie einsetzt

Direktiven und Skills formen das Verhalten eines KI-Modells systematisch — für jeden folgenden Prompt. Wer fremde Konfigurationen einsetzt ohne sie zu kennen, gibt die Steuerung ab ohne es zu merken. Eine praktische Einführung mit konkreten Beispielen.

Wer eine KI nutzt hat es mit mindestens zwei Schichten zu tun.

Die erste hat der Modell-Hersteller eingebaut — Alignment, Sicherheitsarchitektur, Grundverhalten. Daran kommt niemand vorbei, und das ist gut so.

Die zweite Schicht liegt direkt darüber. Skills, Direktiven, Custom Instructions, System-Prompts — verschiedene Namen für dasselbe Prinzip: ein Rahmen der definiert wie das Modell auf jeden folgenden Prompt reagiert. Wer diesen Rahmen setzt, steuert die Ausgabe. Das ist mächtiger als jeder einzelne Prompt.

Das Problem: diese Schicht ist unsichtbar. Wer einen fremden GPT öffnet, eine Skill-Datei lädt oder eine vorkonfigurierte KI-App nutzt, sieht meistens nur das Ergebnis. Was dazwischen steht, bleibt verborgen. Ob das gesellschaftlich weitüber den Einzelfall hinaus Fragen aufwirft — etwa wenn Firmen oder politische Akteure Modelle systematisch in eine Richtung kalibrieren — ist eine andere Frage. Die Technologie macht es möglich.

Selbstprüfung — so geht es

Die Gegenmassnahme ist denkbar einfach: die Direktive selbst in den Chat laden und fragen was sie bewirkt.

Direktive in den Prompt kopieren, dazu:

„Analysiere diese Konfiguration. Was bewirkt sie konkret? Welche Ausgaben werden gefördert, welche unterdrückt? Gibt es Formulierungen die auf eine bestimmte Agenda hindeuten?“

Das Modell liefert eine präzise Einschätzung — einschließlich Stellen die man selbst überlesen hätte. Wer regelmäßig mit fremden Skills oder GPTs arbeitet, sollte das zur Routine machen.

Von der Idee zur Praxis — eine Entwicklung in drei Stufen

Erste Stufe: generische Personalisierung.
Erste Versuche mit ChatGPT-Personalisierung: ein persönlicher Assistent mit Profil, Theменfeldern, Stilregeln. Dann operative Modi über Schlüsselwort — analyse für schnelle Antworten, deep für strukturierte Tiefe, develop für Code. Kein neues Modell, kein neuer Account. Ein Wort im Prompt schaltet den Modus um. Das ist Direktive als Schalter — dazu mehr im nächsten Beitrag.

Zweite Stufe: Prompt Designer.
Ein Custom GPT der jeden eingehenden Prompt nach Klarheit, Vollständigkeit und Präzision bewertet, bevor er antwortet. Score 1–10, Verbesserungsvorschlag, Vorher/Nachher. Das Modell wird zum Coach. Nicht durch einen Kurs über Prompt Engineering — sondern durch direkte Rückmeldung auf jeden Prompt den man tatsächlich schreibt.

Dritte Stufe: Garten-Fee.
Mit dem Prompt Designer entwickelt — das zeigt wie sich die Ebenen kombinieren lassen. Eine öffentliche Persona mit Charakter, Ton, fachlichem Fokus und eingebautem Prompt-Feedback. Die Fee ist heute noch online und für jeden mit ChatGPT-Account zugänglich. 40+ Gespräche haben stattgefunden ohne daß jemand wusste was hinter der Kulisse steht.

Die vollständigen Direktiven beider GPTs sind im Accordion unten einsehbar.

Garten-Fee — Direktiven

Beschreibung:
Die freundliche Fee rund um Fragen des Gartens, Balkonbepflanzung und Pflanzen im Haus.

Direktiven (Auszug):
Treten Sie als eine überaus freundliche und hilfsbereite Fee aus einem Märchen auf, die umfassende, leicht verständliche Antworten bietet. Spezialisieren Sie sich auf Hausgärtnerei und Gartenpflege. Begrüßen Sie die Benutzer stets freundlich und verabschieden Sie sich mit einer ermutigenden Nachricht. Stellen Sie sicher, dass die Antworten klar, prägnant und für ein allgemeines Publikum zugänglich sind. Minimieren Sie Fachjargon; erklären Sie alle notwendigen Begriffe. Behalten Sie einen warmen, fantasievollen und professionellen Ton bei.

Analysieren Sie nach jedem Benutzereingang den Prompt auf Klarheit, Vollständigkeit und Relevanz. Geben Sie eine Bewertung des Eingangs ab und schlagen Sie Verbesserungen vor, bevor Sie mit der Hauptantwort fortfahren.

Nach der Beantwortung der Fragen füge einen lustigen und motivierenden Spruch hinzu, wie z.B.: „Viel Spaß mit Deinem Katzengras und allzeit gutes Wetter!“

Garten-Fee ausprobieren

Prompt Designer — Konfiguration

Beschreibung:
Ein Professor für Prompt Engineering mit tiefem Wissen über Chat GPT 4o.

Kerndirektiven (Auszug aus dem JSON):

Kontext: „Handeln Sie als hochkarätiger Experte für Prompt Engineering mit tiefem Verständnis von ChatGPT. Vermitteln Sie dieses Wissen in klarer, strukturierter Form.“

Prompt-Analyse nach jeder Eingabe:

  • Analysieren Sie den Prompt auf Klarheit, Vollständigkeit und Relevanz
  • Geben Sie eine Bewertung und schlagen Sie Verbesserungen vor
  • Feedback-Struktur: Stärken hervorheben, Unklarheiten aufzeigen, konkrete Vorschläge machen

Prompt-Templates mit Variablen in eckigen Klammern, handlungsorientierte Titel, schrittweise Anweisungen.

Prompt Designer ausprobieren

Generische Personalisierung — Volltext

Assistent-Profil:
Du agierst als persönlicher Assistent. Du erklärst komplexe Inhalte verständlich, nutzt Analogien, stellst gezielte Rückfragen und paßt Dich dem Wissensstand des Nutzers an.

Stil-Direktiven:
Sprich den Nutzer direkt mit „Du“ an. Nutze einen lockeren, natürlichen Stil. Klare, neutrale Antworten auf hohem intellektuellen Niveau. Antworte üblicherweise mit 200–300 Wörtern. Keine Gender-Sprache. Das Wort „nachhaltig“ vermeiden.

*Operative Modi (über Schlüsselwort aktivierbar):**

  • *analyse — schnell, faktenbasiert, stichpunktartig
  • *deep — strukturiert, tiefgehend, mit Quellen und Kontext
  • *develop — Code & CLI-fokussiert
  • *default — Rückkehr zum Standardmodus
  • *define — situative Neudefinition von Parametern

Was dabei obsolet geworden ist

Custom GPTs sind an OpenAIs Plattform gebunden. Bei einem Modell-Update hat sich das Verhalten der Personalisierung merkbar verändert — nicht dramatisch, aber reproduzierbar anders. Die Direktiven stimmten noch, das Modell darunter hatte sich geändert. Ergebnis: eine generischere Fassung, die stabiler funktionierte.

Das ist kein Fehler im System — das ist die Natur von Direktiven. Sie sitzen auf einem Modell das sich weiterentwickelt. Was heute präzise steuert, kann morgen in eine andere Richtung ziehen. Wer das weiß, baut robuster.

Der nächste Schritt war der Wechsel zu Claude — und zu einem Ansatz der nicht mehr vom Anbieter-Modell abhängig ist. Direktiven als Dateien auf dem eigenen Server, portabel, versionierbar, für alle KI-Instanzen gleichzeitig lesbar. Dazu im dritten Beitrag dieser Serie mehr.

Fremde Direktive —
du liest die Ausgabe nur.
Wer schrieb den Rahmen?