Praxis & Anwendung

Plan rein, Seite raus — ein News-Aggregator in einer Stunde

Warum ein guter Prompt wichtiger ist als ein gutes Tool

35 internationale Quellen, automatische Übersetzung, Relevanz-Filter, Kirby-Integration, Cronjob. Eine Stunde. Was passiert, wenn der Plan steht bevor die KI anfängt.

Heute Nachmittag habe ich einen vollständigen News-Aggregator bauen lassen. 35 internationale Quellen, automatische Übersetzung ins Deutsche, KI-gestützter Relevanz-Filter, Integration in das bestehende CMS, Cronjob alle vier Stunden. Eine Stunde Arbeitszeit. Das Ergebnis ist live: qzen.ch/radar

Was daraus entstanden ist

Ausgangspunkt war eine Quellensammlung — Namen von Publikationen und ihre RSS-Feed-Adressen. MIT Technology Review, Ars Technica, Hacker News, Heise, Nikkei Asia, und dreißig weitere aus sechs Regionen: USA, UK, Israel, Westeuropa, Asien und Forschung.

Aus diesem Plan und einem einzigen Prompt an Claude Code sind innerhalb einer Stunde entstanden:

  • 35 RSS-Feed-URLs ermittelt und verifiziert (34 erreichbar)
  • Für drei Quellen ohne nativen Feed alternative Wege gefunden
  • Paywall-Status für jede Quelle geprüft und dokumentiert
  • Ein vollständiges Blueprint-System für das Kirby CMS
  • Ein Python-Aggregator mit Relevanz-Filter, Übersetzung und Content-Writer
  • Cronjob, Log-Rotation, API-Key-Isolation
  • Die gesamte Session als strukturiertes Dokument festgehalten

Vier Probleme tauchten unterwegs auf — alle im selben Durchlauf gelöst. Die Batch-Größe für den Relevanz-Filter war zu groß und die JSON-Antworten wurden abgeschnitten. Ein Sprachmodell war mit dem vorhandenen API-Key nicht verfügbar. Eine Variable fehlte im Template. Eine Debug-Einstellung griff an der falschen Stelle. Alles behoben, alles dokumentiert.

Der Unterschied

Der übliche KI-Arbeitsablauf sieht so aus: Prompt, Ergebnis, Fehler, Korrektur, nächster Fehler, Stunden später irgendwie fertig. Das kennt jeder, der mit KI-gestützten Entwicklungswerkzeugen arbeitet.

Heute war das anders. Der entscheidende Unterschied war der Plan davor.

Das Planungsdokument hat die Arbeit in vier Phasen mit klaren Abhängigkeiten strukturiert. Alle Entscheidungen — URL-Pfad, API-Wahl, Datenstruktur, Ordnerstruktur — waren vorab getroffen. Der Stack mit seinen Eigenheiten war beschrieben. Die KI hatte keinen Interpretationsspielraum mehr. Nur noch Ausführung.

Ein sorgfältig geschriebener Prompt kann eine Aufgabe in einem Durchlauf vollständig erledigen — bis zum fertigen Ergebnis auf der Webseite.

Das System dahinter

Das funktioniert allerdings nur, weil seit dem ersten Tag dafür gesorgt wurde, daß jede KI-Instanz die Informationen hat, die sie braucht.

Mehrere Dateien auf dem Server beschreiben den Aufbau: Betriebssystem, Webserver-Konfiguration, Besonderheiten wie eine tägliche Health-Mail die den Zustand des Servers dokumentiert. Dazu kommen zwei Skills — spezialisierte Referenzdokumente für Kirby CMS und das Zoon Theme, generiert aus den jeweiligen Dokumentationen. Ein Development-Log hält fest, was wann und wie erledigt wurde.

Ich arbeite mit Visual Studio Code auf dem Server, Verbindung über SSH. In VSC stehen Claude Chat und Claude Code zur Verfügung — beide greifen auf dasselbe Wissen zu. Claude Code führt aus. Claude Chat berät.

Die Planung selbst findet hier statt — im Claude-Webinterface, im interaktiven Gespräch. Aus diesem Gespräch entsteht der Prompt für Claude Code. Für das qzen.ch-Projekt gibt es ein eigenes Projekt mit hinterlegten Dokumenten und Zugriff auf den Webserver über einen MCP-Server. Das ist der Ort für Ideen, Planung und Weiterentwicklung.

Erst das Zusammenspiel aller Komponenten ermöglicht die Leichtigkeit, mit der heute ein komplettes System in einer Stunde entstanden ist.

Die Zahlen

35 Feeds werden alle vier Stunden abgerufen. Pro Lauf kommen rund 620 Einträge rein. Der Relevanz-Filter bewertet jeden Eintrag auf einer Skala von 0 bis 10 — nur was über 6 liegt, kommt durch. Die besten 15 werden ins Deutsche übersetzt und als Kirby-Seiten veröffentlicht. Einträge älter als 30 Tage werden automatisch entfernt.

Kosten pro Tag: etwa $0.30 bis $0.60. Für einen vollautomatischen, mehrsprachigen News-Aggregator mit Relevanz-Filter.

Und am Ende

Während der Aggregator lief, hat Claude Code die gesamte Session als strukturiertes Dokument festgehalten. Architektur, Bugfixes, Kostenkalkulation, Testergebnisse — geschrieben von derselben KI, die das System gebaut hat. Über das System, das sie gebaut hat.

Eine Seite, die funktioniert. In einer Stunde. Aus einem Plan und einem Prompt.


Die vollständige technische Dokumentation dieser Session — Architektur, Bugfixes, Kostenkalkulation und Testergebnisse — wurde von Claude Code während der Implementierung erstellt und ist als Session-Dokumentation verfügbar.