Hintergrund & Analyse
Der Prompt ist nicht das Instrument — der Kontext ist es
Warum bessere Einzelprompts selten das eigentliche Problem lösen — und wo man trotzdem lernen kann, sie zu schreiben
Prompt-Engineering ist eines der meistbesprochenen Themen rund um KI. Was dabei fast immer fehlt: der Blick auf den Kontext der die Ausgabe eigentlich steuert. Ein Wegweiser durch die Ressourcen — und eine andere Perspektive auf das Thema.
Der Prompt ist nicht das Instrument — der Kontext ist es
Prompt-Engineering ist eines der am häufigsten besprochenen Themen rund um KI. Hunderte YouTube-Kanäle, eigene Buchkategorien, LinkedIn-Posts ohne Ende. Die Grundbotschaft ist immer dieselbe: Formuliere deinen Prompt besser, und die Ausgabe wird besser.
Das stimmt — bis zu einem Punkt.
Aber bevor wir zu den Ressourcen kommen: ein kurzer Blick auf das, was der Einzelprompt allein nicht leisten kann.
Ein Wort kippt alles
Daß die Formulierung entscheidend ist, läßt sich an konkreten Beispielen zeigen. Auf qzen.ch gibt es dazu bereits zwei Beiträge.
In „Ein Wort. Eine Kaskade. Eine rote Meldung.“ ist dokumentiert wie das einzelne Wort „respektlos“ in einem Prompt eine mehrstufige Sicherheitsarchitektur auslöst — nicht weil jemand einen Schalter umgelegt hätte, sondern weil das Modell ein erlerntes Muster aktiviert. Gleiche Anfrage, ein Wort anders — komplett andere Ausgabe.
In „Wenn der Prompt die Musik macht — wörtlich“ zeigt ein Musiker wie er seine eigene Stimme in Suno trainiert und den Prompt so gestaltet, daß das Ergebnis nach seinen Regeln läuft. Nicht Zufall — Steuerung.
Das Prinzip gilt genauso in der Bildgenerierung. Wer bei Midjourney oder DALL-E „a man without a beard“ eingibt, bekommt oft einen Mann mit Bart — weil das Modell den Begriff wörtlich nimmt und als Beschreibung verarbeitet, nicht als Verneinung. Die korrekte Formulierung wäre „a clean-shaven man“. Ein Wort. Komplett anderes Bild.
Forscher nennen das den Butterfly Effect des Promptings: selbst ein zusätzliches Leerzeichen am Satzende kann die Wahrscheinlichkeitsverteilung im Modell so verschieben, daß eine andere Antwort herauskommt. Das klingt absurd — ist aber die direkte Konsequenz davon, wie diese Modelle intern funktionieren.
Der Prompt im Kontext — und ohne
Hier liegt der Unterschied den die meisten Prompt-Engineering-Ressourcen nicht adressieren.
Ein Einzelprompt ist ein Impuls in ein leeres System. Das Modell hat keinen Rahmen, keine Erwartung, keine Persönlichkeit. Es antwortet aus seiner Grundausrichtung heraus — hilfreich, neutral, generisch.
Ein Prompt innerhalb eines konfigurierten Kontexts ist etwas anderes. Dieser Artikel entsteht in einem Projekt das Schreibdirektiven definiert: Ton, Perspektive, verbotene Muster, das Prinzip „Mensch handelt, KI führt aus“. Egal was ich in einem einzelnen Prompt formuliere — dieser Rahmen ist immer aktiv. Er steuert die Ausgabe mehr als der Prompt selbst.
Das ist Prompt Engineering von hinten gedacht. Nicht „wie formuliere ich diesen einen Prompt optimal“, sondern „welcher Kontext soll für alle Prompts gelten“. Der Einzelprompt wird zum Auslöser, nicht zur Steuerung.
Ob das weitreichende Implikationen hat — etwa wenn Firmen oder staatliche Akteure diese Methode einsetzen um KI-Systeme in eine bestimmte Richtung zu kalibrieren — ist eine andere Frage. Die Technologie macht es möglich. Wer sie verwendet und zu welchem Zweck, entscheidet der Mensch.
Dazu mehr in einem kommenden Beitrag über Direktiven, Personas und Individualisierung — dem natürlichen nächsten Schritt nach diesem Wegweiser.
Wo man Prompts lernt — ein kuratierter Wegweiser
Für wer mit dem klassischen Ansatz arbeitet — also einzelne Prompts verbessern will — gibt es brauchbare Ressourcen. Hier eine Auswahl, ehrlich eingeschätzt nach Zweck und Zielgruppe.
Anthropic Prompt Library
Offizielle Sammlung von Anthropic, strukturiert nach Anwendungsfall. Gut für Einsteiger die mit Claude arbeiten. Direkt von der Quelle, keine Qualitätsschwankungen.
OpenAI Cookbook
Eher technisch, für Entwickler. Wer die API nutzt oder eigene Anwendungen baut, findet hier gut dokumentierte Muster.
Awesome ChatGPT Prompts (GitHub)
Kurierte Liste mit Hunderten von Prompts für alle möglichen Rollen und Szenarien. Kostenlos, offen, gemischte Qualität — aber durchaus Goldstaub dabei.
PromptBase
Marktplatz — Prompts kaufen und verkaufen. Qualität schwankend. Interessant als Indikator dafür, was Menschen bereit sind zu bezahlen.
r/PromptEngineering (Reddit)
Community, laut, chaotisch, manchmal erhellend. Gut um zu sehen womit andere kämpfen. Nicht geeignet als primäre Lernquelle.
MIT Sloan: Effective Prompts for AI
Solide Grundlagenartikel aus dem akademischen Umfeld. Etwas trocken, aber präzise. Gut für wer einen strukturierten Einstieg sucht ohne YouTube-Energie.
prompts.chat
Open-Source-Bibliothek mit tausenden kuratierten Prompts, durchsuchbar nach Kategorie und Tag. Besonderheit: MCP-Integration — wer Claude Code oder einen MCP-fähigen Client nutzt, kann Prompts direkt aus dem Chat suchen, abrufen und verbessern lassen. Kostenlos, community-gepflegt, verwandt mit Awesome ChatGPT Prompts.
Was bringt Prompt Engineering wirklich?
Die ehrliche Antwort: Für Gelegenheitsnutzer relativ viel. Wer lernt präziser zu formulieren, bekommt deutlich bessere Ausgaben.
Für professionelle Anwendungen ist der Einzelprompt aber selten der Engpaß. Da geht es um Systemarchitektur: Wie ist das Modell konfiguriert? Welche Direktiven gelten? Welche Daten stehen im Kontext?
Und für Bildgenerierung gilt eine eigene Logik: Stil-Keywords wie „cinematic lighting“, „photorealistic“ oder „cartoon style“ verändern das Ergebnis fundamental — nicht weil der Prompt besser ist, sondern weil diese Begriffe im Training mit bestimmten visuellen Mustern verknüpft sind.
Warum Negationen nicht funktionieren
Sowohl in Text- als auch in Bildmodellen gilt: Negationen sind tückisch. „Schreib keinen Marketingtext“ produziert häufig genau das — weil das Modell den Begriff „Marketingtext“ als Kontext aufnimmt, nicht als Ausschlusskriterium.
Die korrekte Alternative: positiv formulieren was man will. „Sachlicher, informativer Ton ohne Werbebotschaften“ statt „kein Marketing“.
Dasselbe Prinzip gilt für Bilder: „a man without a beard“ liefert einen Bärtigen. „a clean-shaven man“ liefert was gewünscht ist. Die KI liest Beschreibungen, keine Differenzmengen.
Die KI als eigener Prompt-Coach
Es gibt einen Schritt der noch vor dem Wegweiser kommt: die KI dazu bringen, den eigenen Prompt zu bewerten bevor die eigentliche Aufgabe ausgeführt wird.
Das Prinzip ist einfach. Man konfiguriert das Modell so, daß es jeden eingehenden Prompt zunächst nach drei Kriterien analysiert: Klarheit (ist unmissverständlich was gewünscht ist?), Vollständigkeit (sind alle nötigen Informationen enthalten?) und Präzision (frei von Redundanz und Mehrdeutigkeiten?). Jedes Kriterium bekommt einen Score von 1 bis 10 — und das Modell zeigt, wie es die Anfrage interpretiert, welche Annahmen es trifft, und wo Verbesserungspotenzial liegt. Mit Vorher/Nachher-Beispiel.
Der Anwender lernt damit nicht durch einen Kurs über Prompt Engineering — sondern durch direkte Rückmeldung auf jeden Prompt den er tatsächlich schreibt. Das ist der praktischste Lernmechanismus den es gibt.
Wie sich diese Art von Kontext-Konfiguration aufbauen läßt — und was das mit Direktiven, Personas und persönlichen Einstellungen zu tun hat — ist Thema des nächsten Beitrags.
Ein Wort zu viel gesetzt —
die Maschine nimmt es wörtlich.
Bart statt kein Bart.