KI-Technologie
KI Beratung
Willkommen! Hier findest du alles, was du brauchst – übersichtlich, einfach und ohne großes Suchen. Schau dich in Ruhe um und entdecke, was diese Seite für dich bereithält.
Was Sie hier finden
Werkzeuge & Workflows
Konkrete KI-Werkzeuge im Vergleich und praktische Workflows, die sich im Einsatz bewährt haben. Für einen schnellen, fundierten Einstieg ohne Umwege.
Hintergrund & Analyse
Wie funktionieren KI-Systeme wirklich — und wo liegen ihre Grenzen? Technische Zusammenhänge, erklärt ohne unnötige Vereinfachung.
Praxis & Anwendung
Erfahrungsberichte und Fallbeispiele aus dem produktiven Einsatz von KI-Technologien — branchenübergreifend und auf das Wesentliche konzentriert.
Unsere Philosophie
qzen.ch ist herstellerunabhängig und werbefrei. Alle Inhalte basieren auf nachvollziehbaren Quellen, eigenen Tests oder belegten Erfahrungswerten. Das Portal richtet sich an Menschen, die KI als Mittel zum Zweck betrachten:produktiv, nüchtern und mit klarem Blick — fokussiert auf Verstehen und konkretes Handeln.
Die grossen LLM-Modelle im ÜberblickLarge Language Models
Large Language Models (LLMs) haben die Welt der künstlichen Intelligenz revolutioniert. Hier ist ein Überblick über die bedeutendsten Modelle, ihre Entwickler und ihre wichtigsten Eigenschaften.
GPT-4 / GPT-4oOpenAI
GPT-4 ist eines der leistungsstärksten Sprachmodelle von OpenAI. Es unterstützt multimodale Eingaben (Text und Bild) und zeichnet sich durch hervorragendes Reasoning, Codegenerierung und Textverständnis aus. GPT-4o ist die optimierte, schnellere Variante mit verbesserter Multimodalität.
- Multimodal (Text, Bild, Audio)
- Sehr starkes Reasoning
- Verfügbar via ChatGPT & API
- 128k Token Kontextfenster
Claude 3 (Opus / Sonnet / Haiku)Anthropic
Claude 3 von Anthropic ist bekannt für seine Sicherheitsorientierung und sein grosses Kontextfenster von bis zu 200k Token. Die Modellreihe bietet drei Varianten für unterschiedliche Anforderungen: Opus (leistungsstark), Sonnet (ausgewogen) und Haiku (schnell & effizient).
- 200k Token Kontextfenster
- Starke Sicherheitsarchitektur
- Exzellentes Textverständnis
- Verfügbar via Claude.ai & API
Gemini 1.5 Pro / UltraGoogle DeepMind
Googles Gemini-Familie ist nativ multimodal und tief in das Google-Ökosystem integriert. Gemini 1.5 Pro verfügt über ein beeindruckendes Kontextfenster von bis zu 1 Million Token und eignet sich hervorragend für die Analyse grosser Dokumente und Videos.
- Bis zu 1 Million Token Kontext
- Nativ multimodal
- Google-Ökosystem-Integration
- Starke Mathematik & Coding-Fähigkeiten
Llama 3Meta AI
Metas Llama 3 ist eines der leistungsstärksten Open-Source-Modelle und kann lokal betrieben werden. Es ist in verschiedenen Grössen verfügbar (8B, 70B, 405B Parameter) und eignet sich besonders für Unternehmen, die volle Kontrolle über ihre KI-Infrastruktur wünschen.
- Open Source & lokal betreibbar
- Verschiedene Modellgrössen
- Hohe Anpassbarkeit
- Kostenlos nutzbar
Mistral / MixtralMistral AI
Mistral AI aus Frankreich hat mit seinen effizienten Modellen für Aufsehen gesorgt. Mixtral 8x7B nutzt eine Mixture-of-Experts-Architektur und liefert trotz geringerer Grösse beeindruckende Ergebnisse. Besonders stark bei mehrsprachigen Aufgaben und Code.
- Mixture-of-Experts-Architektur
- Sehr effizient & schnell
- Open Source verfügbar
- Starke Mehrsprachigkeit
Command R+Cohere
Coheres Command R+ ist speziell für den Unternehmenseinsatz optimiert und brilliert bei Retrieval-Augmented Generation (RAG). Es eignet sich hervorragend für den Aufbau von unternehmensinternen Wissensassistenten und komplexen Dokumentenanalysen.
- Optimiert für RAG-Anwendungen
- Unternehmensfreundlich
- 128k Token Kontext
- Tool Use & Grounding
GrokxAI (Elon Musk)
Grok ist xAIs Sprachmodell und in X (ehemals Twitter) integriert. Es hat Zugang zu Echtzeit-Daten aus dem Internet und zeichnet sich durch einen weniger eingeschränkten, direkten Kommunikationsstil aus. Grok 2 zeigt deutliche Verbesserungen in Reasoning und Multimodalität.
- Echtzeit-Internetzugang
- Integration in X/Twitter
- Weniger restriktiv
- Multimodal (Grok 2)
DeepSeek V3 / R1DeepSeek (China)
DeepSeek hat mit seinen Modellen die KI-Welt überrascht: Trotz eines Bruchteils der Trainingskosten westlicher Konkurrenten erreicht DeepSeek V3 und R1 vergleichbare oder überlegene Leistungen – insbesondere beim mathematischen und wissenschaftlichen Reasoning. R1 ist zudem Open Source.
- Extrem kosteneffizientes Training
- Herausragendes Mathematik-Reasoning
- R1 ist Open Source
- Starke Coding-Fähigkeiten
Vergleich auf einen Blick
- Bestes Reasoning: GPT-4o, Claude 3 Opus, DeepSeek R1
- Grösstes Kontextfenster: Gemini 1.5 Pro (1M Token)
- Beste Open-Source-Option: Llama 3 (Meta), DeepSeek R1, Mistral
- Bestes für Unternehmen/RAG: Cohere Command R+
- Echtzeit-Informationen: Grok (via X)
- Bestes Preis-Leistungs-Verhältnis: Mistral, DeepSeek, Claude Haiku
Die Gründung von Anthropic: Eine Abspaltung von OpenAI
Anthropic wurde im Jahr 2021 von ehemaligen Mitarbeitern und Führungskräften von OpenAI gegründet. An der Spitze standen Dario Amodei und seine Schwester Daniela Amodei, die zuvor als VP of Research bzw. VP of Operations bei OpenAI tätig gewesen waren. Gemeinsam mit ihnen verließen mehrere weitere hochrangige Forscher und Ingenieure das Unternehmen, darunter Tom Brown, Chris Olah, Sam McCandlish, Jack Clark und Jared Kaplan.
Der Grund für die Abspaltung lag in grundlegenden Meinungsverschiedenheiten über die strategische Ausrichtung von OpenAI. Die Gründer von Anthropic waren besorgt über das zunehmend kommerzielle Geschäftsmodell von OpenAI – insbesondere nach der engen Partnerschaft mit Microsoft und der Umwandlung in eine „capped-profit
Die Mission von Anthropic
Anthropic versteht sich als ein auf KI-Sicherheit spezialisiertes Unternehmen. Die zentrale Mission lautet, KI-Systeme zu entwickeln, die zuverlässig, interpretierbar und sicher sind – selbst wenn sie immer leistungsfähiger werden. Das Unternehmen forscht intensiv im Bereich „AI Alignment
- AI Safety Research: Erforschung von Methoden, um KI-Systeme kontrollierbar und vorhersehbar zu machen.
- Constitutional AI (CAI): Ein eigens entwickeltes Verfahren, das KI-Modelle anhand eines Regelwerks trainiert, um schädliche Ausgaben zu reduzieren.
- Interpretierbarkeit: Verstehen, wie große Sprachmodelle intern „denken
Das bekannteste Produkt von Anthropic ist der KI-Assistent Claude, der als sichere und zuverlässige Alternative zu anderen großen Sprachmodellen positioniert wird. Anthropic sieht sich selbst nicht nur als Technologieunternehmen, sondern als „safety-focused AI lab
Kirby CMS Multi-Server Setup in nur 30 Minuten
Die Konfiguration unserer Kirby CMS Installation für den Multi-Server-Betrieb war ein voller Erfolg – und das in beeindruckend kurzer Zeit: Die gesamte Einrichtung war in nur 30 Minuten abgeschlossen.
Das Setup verbindet zwei Server miteinander: den Remote-Server qzen.one (/var/www/kirby) per SSH-Key-Authentifizierung sowie die lokale Entwicklungsumgebung auf dem Mac unter /Users/thomas/dev/vserver_local. Änderungen fließen dabei standardmäßig vom lokalen System auf den Remote-Server.
Ein zentraler Bestandteil der Konfiguration ist die intelligente Modell-Auswahl für den KI-gestützten Copiloten: Für reguläre Aufgaben wie Template-Anpassungen, Blueprint-Änderungen und Bug-Fixes kommt Claude 3.5 Sonnet zum Einsatz. Komplexe Architekturentscheidungen, Debugging über SSH oder die Synchronisationslogik zwischen den Servern übernimmt Claude 3 Opus. Einfache Fragen und schnelle Syntax-Lookups erledigt das leichtgewichtige Claude 3.5 Haiku.
Der empfohlene Workflow setzt auf zwei parallele Fenster: Fenster 1 für den Remote-Server zum Produktionstest, Fenster 2 für die lokale Entwicklung und Iteration. Vor größeren Synchronisationen wird stets ein Backup angelegt, Änderungen werden per diff oder Versionskontrolle nachverfolgt.
Das Ergebnis: Eine robuste, gut strukturierte Entwicklungsumgebung für Kirby CMS – aufgesetzt in einer halben Stunde.
KI-Assistent für die Website-Verwaltung
Welches KI-Modell wird wann eingesetzt?
Für die Arbeit an dieser Website steht ein KI-Assistent (Claude) zur Verfügung, der je nach Art der Aufgabe automatisch das passende Modell auswählt. Man kann sich das vorstellen wie verschiedene Werkzeuge für verschiedene Jobs:
Für alltägliche AufgabenStandard-Modell
Das Standardmodell übernimmt die meisten täglichen Aufgaben: kleinere Änderungen an der Website, Anpassungen von Seitenvorlagen, Fehlerbehebungen und das Schreiben von Dokumentation.
Für komplexe AufgabenErweitertes Modell
Bei besonders anspruchsvollen Aufgaben – etwa wenn grundlegende Entscheidungen zur Website-Struktur getroffen oder schwierige technische Probleme gelöst werden müssen – kommt ein leistungsstärkeres Modell zum Einsatz.
Für einfache FragenSchnelles Modell
Für kurze, unkomplizierte Anfragen – wie einfache Fragen, das Nachschlagen von Informationen oder kurze Erklärungen – wird ein besonders schnelles und schlankes Modell verwendet.
Wie ist die Website aufgebaut?
Die Website läuft auf zwei Systemen gleichzeitig – einem lokalen Rechner (dem Mac, auf dem entwickelt wird) und einem Server im Internet, auf dem die öffentliche Website live ist. Änderungen werden zunächst lokal ausprobiert und dann auf den Live-Server übertragen.
Live-Server (öffentlich erreichbar)
Hier läuft die Website so, wie sie Besucher sehen. Änderungen werden hier erst eingespielt, nachdem sie lokal getestet wurden.
Lokale Entwicklungsumgebung
Eine Kopie der Website auf dem eigenen Computer. Hier werden Änderungen zuerst ausprobiert, bevor sie live gehen.
Empfohlene Arbeitsweise
- Erst lokal testen, dann live schalten: Änderungen immer zuerst auf dem eigenen Computer ausprobieren, bevor sie auf den Live-Server übertragen werden.
- Regelmäßige Sicherungen: Vor größeren Änderungen immer eine Sicherungskopie anlegen.
- Zwei Fenster nebeneinander: Im Arbeitsalltag empfiehlt es sich, die lokale Version und den Live-Server gleichzeitig geöffnet zu haben, um Änderungen direkt vergleichen zu können.
- Änderungen nachverfolgen: Mit einer Versionsverwaltung lässt sich jederzeit nachvollziehen, was wann geändert wurde.
Was tun, wenn die Verbindung zum Server nicht funktioniert?
Sollte die Verbindung zum Live-Server einmal nicht funktionieren, gibt es einige einfache Schritte zur Fehlerbehebung:
- Prüfen, ob die Verbindung zum Server überhaupt aufgebaut werden kann (Timeout-Einstellung: aktuell 60 Sekunden).
- Sicherstellen, dass der Zugriffsschlüssel für den Server korrekt eingerichtet ist.
- Falls nötig, das integrierte Diagnoseskript für die Remote-Verbindung nutzen.
- Die Verbindungseinstellungen sind dieselben wie in der lokalen Entwicklungsumgebung – es muss nichts doppelt konfiguriert werden.
Copilot Configuration for Kirby CMS Multi-Server Development
Model Selection Strategy
This workspace uses Claude models from your Max Plan based on task complexity:
Default Model: Claude 3.5 Sonnet 4.6 (Latest)
- Regular code changes and reviews
- Template modifications (Kirby blueprints, PHP files)
- Bug fixes and refactoring
- Documentation and comments
- Regular terminal commands and scripts
Complex Tasks: Claude 3 Opus (Latest)
- Architecture decisions and large refactors
- Debugging complex issues (especially remote SSH scenarios)
- Performance optimization analysis
- Security reviews
- Multi-server synchronization logic
Quick Tasks: Claude 3.5 Haiku (Latest)
- Simple questions and syntax lookups
- File navigation
- Brief explanations
- Code formatting suggestions
Workspace Context
This multi-root workspace connects two Kirby CMS servers:
- Remote Server (qzen.one):
/var/www/kirbyvia SSH Key authentication - Local Development:
/Users/thomas/dev/vserver_local(Mac)
Both servers should be kept in sync - changes typically flow: Local → Remote
Best Practices for This Setup
SSH Remote Development
When working with the Remote Server (qzen.one) folder:
- Use
ssh-remote://URIs for file paths - Refer to remote paths as
/var/www/kirby/* - Always test changes on remote before pulling to local
- Document SSH key details when troubleshooting connection issues
Kirby CMS Specific
- Project uses Kirby CMS (PHP-based headless/flat-file or DB-backed)
- Key directories:
/site/,/content/,/config/,/plugins/ - Blueprints are YAML-based field definitions
- Controllers and templates use PHP
Multi-Server Synchronization
When syncing between servers:
- Always backup before major syncs
- Use
diffor version control to track changes - Test database migrations carefully (if applicable)
- SSH keys are already configured in Cursor - reuse same keys here
Two-Window Workflow (Recommended)
- Window 1: Remote Server (qzen.one) for production testing
- Window 2: Local Development for iteration
- Use VS Code’s split view or multiple windows side-by-side
- File watchers configured to exclude: node_modules, .git, cache, tmp
Troubleshooting Tips for VBC (VS Code Copilot)
If SSH connection issues occur:
- Check
remote.SSH.connectTimeout(currently 60s) - Verify SSH key is loaded:
ssh-add -l - Use Debug Remote Connection script if needed
- VBC uses same SSH config as local Cursor setup
Implementation Notes
- Sonnet 4.6 is cost-effective and fast for regular Kirby development
- Use @ symbols to reference specific files when clarity is needed
- For sensitive operations (migrations, syncs), explicitly request Opus
- Haiku can handle initial file structure exploration
Configuration updated for VBC. SSH key-based authentication from Cursor carries over to VS Code.
Künstliche Intelligenz als Werkzeug — nicht als Versprechen.
qzen.ch ist ein unabhängiges Portal für Menschen, die KI-Technologie verstehen und konkret einsetzen wollen. Hier finden Sie keine Hochglanz-Versprechen, sondern geprüfte Informationen, nüchterne Einordnungen und praxistaugliche Anleitungen. Der Fokus liegt auf dem, was tatsächlich funktioniert.
Was Sie hier finden
Werkzeuge & Workflows
Konkrete Übersichten und Vergleiche zu KI-Werkzeugen für den Alltag und die Arbeit. Mit klaren Angaben zu Stärken, Schwächen und sinnvollen Einsatzbereichen.
Hintergrund & Analyse
Technische Zusammenhänge, Entwicklungen und Einordnungen — verständlich erklärt, ohne Vereinfachungen auf Kosten der Genauigkeit.
Praxis & Anwendung
Fallbeispiele und Anleitungen aus realen Anwendungskontexten. Was lässt sich damit lösen — und wo stossen aktuelle Systeme an ihre Grenzen?
Unsere Haltung
qzen.ch arbeitet herstellerunabhängig und ohne kommerzielle Bindung an einzelne Anbieter. Aussagen stützen sich auf nachvollziehbare Quellen und eigene Tests — nicht auf Pressemitteilungen. Das Portal richtet sich an Menschen, die KI produktiv nutzen möchten: als Werkzeug, das ihnen Zeit und Aufwand spart, nicht als Technologie, über die man staunt und dann weiterzieht.