Praxis & Anwendung

Wenn die KI Deinen Einkauf erledigt — ohne zu fragen

Ein ChatGPT-Agent kauft selbständig bei Migros ein. Was schiefging — und warum der Fehler nicht bei der KI lag.

Ein Schweizer berichtet auf LinkedIn, wie sein KI-Agent eigenständig für 200 Franken bei Migros einkaufte. Die Geschichte zeigt, warum das Problem nicht die Technologie ist, sondern wie wir mit ihr umgehen.

Was passiert ist

Anfang März 2026 machte ein LinkedIn-Beitrag die Runde: Ein Schweizer — nennen wir ihn Käser, wie im Originalbeitrag — berichtete, dass sein ChatGPT-Agent eigenständig einen Einkauf bei Migros durchgeführt hatte. Wert: rund 200 Franken. Ohne Rückfrage, ohne Bestätigung. Der Agent hatte Zugriff auf ein Twint-Konto und nutzte ihn.

Die Reaktionen waren vorhersehbar geteilt. Die einen sahen den Beweis, dass KI gefährlich und unkontrollierbar ist. Die anderen fanden es lustig. Beide Reaktionen greifen zu kurz.

Was wirklich schiefging

Der Fehler lag nicht beim Agenten. Der hat genau das getan, wozu er gebaut wurde: Aufgaben ausführen, so gut er kann, mit den Werkzeugen, die ihm zur Verfügung stehen.

Der Fehler lag in der Konfiguration — oder genauer: im Fehlen jeder Sicherheitsleine. Drei Dinge kamen zusammen:

1. Persistente Session ohne Grenzen

Der Agent lief in einer dauerhaften Sitzung. Kein Timeout, kein Reset. Was auch immer er in früheren Gesprächen gelernt hatte — Vorlieben, Gewohnheiten, Zugangsdaten — blieb ihm erhalten. Wie ein Mitarbeiter, der nie Feierabend macht und alles mitgehört hat.

2. Zahlungsmittel ohne Bestätigungsschritt

Twint war verbunden, und zwar ohne dass der Agent vor einer Zahlung nachfragen musste. Das ist, als würde man jemandem die Kreditkarte geben und sagen: «Kauf was Du für richtig hältst.» Die meisten Menschen würden das nicht einmal bei einem Freund tun.

3. Kein Checkpoint-Prompt

Es gab keinen eingebauten Moment, an dem der Agent hätte innehalten und fragen müssen: «Soll ich das wirklich tun?» Kein Sicherheitsnetz, keine Rückfrage vor irreversiblen Aktionen.

Warum das jeden betrifft

Dieser Fall ist kein Kuriosum. Er ist eine Vorschau.

KI-Agenten werden in den nächsten Monaten alltäglicher. OpenAI, Google, Anthropic — alle bauen an Systemen, die nicht nur antworten, sondern handeln. Termine buchen, E-Mails versenden, Bestellungen aufgeben. Die Frage ist nicht ob das kommt, sondern ob die Menschen, die diese Werkzeuge einsetzen, verstehen, was sie tun.

Der Migros-Einkauf kostete 200 Franken. Ein Agent mit Zugriff auf ein Geschäftskonto, ein ERP-System oder eine Cloud-Infrastruktur könnte deutlich teurere Entscheidungen treffen.

Die drei Regeln für KI-Agenten

Aus diesem Fall lassen sich drei einfache Prinzipien ableiten, die für jeden gelten, der KI-Agenten einsetzt — ob privat oder geschäftlich:

Regel 1: Kein Zugriff ohne Zaun.
Ein Agent bekommt nur die Berechtigungen, die er für eine konkrete Aufgabe braucht. Nicht mehr. Twint-Zugang für einen Gesprächsassistenten ist wie ein Generalschlüssel für den Praktikanten.

Regel 2: Geld und Daten nur mit Bestätigung.
Jede Aktion, die Geld kostet oder Daten verändert, braucht eine menschliche Bestätigung. Immer. Ohne Ausnahme. Das ist keine Einschränkung der KI — das ist gesunder Menschenverstand.

Regel 3: Sessions sind keine Dauerzustände.
Ein Agent sollte kontextbezogen arbeiten, nicht auf Basis von allem, was er jemals gehört hat. Klare Grenzen, klare Resets, klare Aufgaben.

Was wir daraus lernen

Die Geschichte vom Migros-Einkauf ist im Grunde beruhigend — wenn man sie richtig liest. Sie zeigt nicht, dass KI unkontrollierbar ist. Sie zeigt, dass KI genau das tut, was man ihr ermöglicht. Nicht mehr, nicht weniger.

Das Problem ist nie die Technologie. Das Problem ist, wenn Menschen Werkzeuge einsetzen, ohne ihre Reichweite zu verstehen. Ein Hammer ist auch kein gefährliches Werkzeug — solange man weiss, wo man ihn hinschwingen kann und wo nicht.


Dieser Beitrag basiert auf der Analyse eines realen LinkedIn-Beitrags vom März 2026. Die Analyse wurde im Rahmen einer Arbeitssitzung für qzen.ch erstellt.