Zum Inhalt springen
· 4 Min. Lesezeit

Prompt Engineering für KI-Agenten: Warum es anders funktioniert als bei Chatbots

Prompt Engineering für KI-Agenten unterscheidet sich fundamental von Chatbot-Prompts. Erfahren Sie die 6 Prinzipien für zuverlässige Agenten in regulierten Prozessen.

Simon Schilling
Simon Schilling
Gründer & Managing Consultant · LinkedIn

ChatGPT hat Prompt Engineering populär gemacht. Doch wer glaubt, die gleichen Techniken auf KI-Agenten übertragen zu können, wird scheitern. Denn ein Agent ist kein Chatbot – er handelt autonom, trifft Entscheidungen und interagiert mit realen Systemen.

In unserer Arbeit mit KI-Agenten-Projekten sehen wir immer wieder: Die Qualität der Agenten-Prompts entscheidet über Erfolg oder Scheitern. Nicht das Modell, nicht die Infrastruktur – der Prompt.

Chatbot vs. Agent: Zwei verschiedene Welten

Bei einem Chatbot formulieren Sie eine Frage und erhalten eine Antwort. Der Prompt optimiert die Qualität einer einzelnen Antwort. Bei einem KI-Agenten geht es um etwas völlig anderes:

DimensionChatbot-PromptAgenten-Prompt
ZielBeste EinzelantwortZuverlässiges Verhalten über viele Durchläufe
KontextVom Nutzer bereitgestelltVom Agenten selbst beschafft
FehlerfolgenNutzer korrigiertAgent handelt falsch – möglicherweise irreversibel
ZeitrahmenEinmalige InteraktionDauerbetrieb über Wochen und Monate
PrüfbarkeitNutzer liest AntwortAudit-Trail muss nachvollziehbar sein

Diese Unterschiede haben fundamentale Konsequenzen für das Prompt-Design.

Prinzip 1: Rolle und Grenzen definieren, nicht nur Aufgaben

Ein Chatbot-Prompt sagt: „Du bist ein hilfreicher Assistent.” Ein Agenten-Prompt muss präzise definieren:

  • Wer ist der Agent? (Rolle, Verantwortungsbereich)
  • Was darf er tun? (Erlaubte Aktionen, Tool-Zugriff)
  • Was darf er nicht tun? (Explizite Verbote, Eskalationspflichten)
  • Wann muss er eskalieren? (Schwellenwerte, Unsicherheits-Trigger)

Praxis-Tipp: Formulieren Sie Grenzen explizit als Negativliste. „Du darfst keine Verträge abschließen” ist wirksamer als „Du unterstützt bei der Vertragsanbahnung.”

Prinzip 2: Entscheidungslogik statt Kreativität

Chatbot-Prompts ermutigen zu kreativen, ausführlichen Antworten. Agenten-Prompts müssen das Gegenteil tun: deterministische Entscheidungspfade vorgeben.

WENN Schadenssumme > 10.000 EUR:
  → Eskaliere an Sachbearbeiter
WENN Schadenssumme <= 10.000 EUR UND alle Unterlagen vollständig:
  → Erstelle Regulierungsvorschlag
WENN Unterlagen unvollständig:
  → Fordere fehlende Dokumente an (max. 2 Nachforderungen)

Je klarer die Entscheidungslogik, desto vorhersagbarer das Verhalten – und desto einfacher die Auditierung.

Prinzip 3: Output-Formate erzwingen

Ein Chatbot darf frei formulieren. Ein Agent, der mit anderen Systemen interagiert, muss strukturierte Outputs liefern. Definieren Sie im Prompt exakt:

  • Format: JSON, XML, tabellarisch oder Freitext?
  • Pflichtfelder: Welche Felder muss jede Antwort enthalten?
  • Validierungsregeln: Welche Werte sind zulässig?

Beispiel: „Deine Antwort muss immer ein JSON-Objekt mit den Feldern entscheidung, begründung, konfidenz (0.0–1.0) und nächster_schritt enthalten.”

Prinzip 4: Fehlerbehandlung einbauen

Chatbot-Prompts ignorieren Fehlerfälle – der Nutzer stellt einfach eine neue Frage. Ein Agent, der im Fehlerfall nicht weiß, was er tun soll, ist gefährlich.

Definieren Sie im Prompt:

  • Was tun bei fehlenden Daten? (Nachfragen, Standardwert, Abbruch?)
  • Was tun bei widersprüchlichen Informationen? (Priorisierung, Eskalation?)
  • Was tun bei Timeout oder API-Fehler? (Retry, Fallback, Logging?)
  • Was tun bei niedriger Konfidenz? (Schwellenwert für Human-in-the-Loop?)

Die Fehlerbehandlung im Prompt ist Ihre wichtigste Verteidigungslinie gegen unerwartetes Verhalten.

Prinzip 5: Kontext-Management steuern

Chatbots erhalten ihren Kontext vom Nutzer. Agenten müssen aktiv entscheiden, welchen Kontext sie brauchen und woher sie ihn beschaffen. Ihr Prompt muss definieren:

  • Welche Quellen darf der Agent abfragen? (Datenbanken, APIs, Dokumente)
  • In welcher Reihenfolge? (Kosten-effizient: lokaler Cache vor API-Call)
  • Wie viel Kontext ist nötig? (Zu wenig → Fehlentscheidungen. Zu viel → Halluzinationen durch Informationsüberflutung)
  • Wie lange ist Kontext gültig? (Stammdaten: Tage. Kursdaten: Sekunden)

Prinzip 6: Beobachtbarkeit eindesignen

In regulierten Umfeldern reicht es nicht, dass ein Agent korrekt handelt – Sie müssen beweisen können, dass er korrekt gehandelt hat.

Bauen Sie in den Prompt ein:

  • Begründungspflicht: „Erkläre bei jeder Entscheidung, welche Regel oder welches Kriterium angewandt wurde.”
  • Konfidenz-Scoring: „Bewerte deine Sicherheit auf einer Skala von 0 bis 1.”
  • Quellenangabe: „Nenne für jede Faktenaussage die Datenquelle.”

Diese drei Elemente machen den Unterschied zwischen einer Black Box und einem auditierbaren System.

Fazit: Prompt Engineering als Engineering-Disziplin

Prompt Engineering für KI-Agenten ist keine kreative Textarbeit – es ist Software-Engineering. Ihre Prompts sind Spezifikationen, die getestet, versioniert und reviewed werden müssen wie Code.

Die sechs Prinzipien im Überblick:

  1. Rolle und Grenzen explizit definieren
  2. Entscheidungslogik statt Kreativität
  3. Output-Formate erzwingen
  4. Fehlerbehandlung einbauen
  5. Kontext-Management steuern
  6. Beobachtbarkeit eindesignen

Wer diese Prinzipien befolgt, baut Agenten, die nicht nur funktionieren – sondern die in regulierten Umfeldern bestehen.


Sie möchten Ihre KI-Agenten-Prompts auf Enterprise-Niveau bringen? In unserem Agentic AI Design Sprint entwickeln wir in 5 Tagen einen produktionsreifen Agenten – inklusive Prompt-Architektur, Testfällen und Compliance-Check. Jetzt Erstgespräch vereinbaren →

Hat Ihnen dieser Artikel geholfen? Auf LinkedIn teilen