Zum Inhalt springen
· 5 Min. Lesezeit

Datenschutz-Folgenabschätzung für KI-Systeme: Ein Praxisleitfaden

Wann brauchen KI-Systeme eine DSFA? Dieser Leitfaden zeigt die fünf Schritte einer Datenschutz-Folgenabschätzung und typische Fallstricke in regulierten Unternehmen.

Simon Schilling
Simon Schilling
Gründer & Managing Consultant · LinkedIn

KI-Systeme verarbeiten zunehmend personenbezogene Daten – von Kundenanfragen über Schadensmeldungen bis zu Bewerbungsunterlagen. Sobald das passiert, stellt sich eine zentrale Frage: Brauchen wir eine Datenschutz-Folgenabschätzung (DSFA)? Die Antwort ist in den meisten Fällen: Ja. Und zwar bevor das System produktiv geht.

Was ist eine DSFA – und warum gerade jetzt?

Die Datenschutz-Folgenabschätzung (englisch: Data Protection Impact Assessment, DPIA) ist ein strukturiertes Verfahren nach Art. 35 DSGVO. Sie bewertet die Risiken einer Datenverarbeitung für die Rechte und Freiheiten betroffener Personen – und dokumentiert die Maßnahmen, die diese Risiken mindern.

Für KI-Systeme wird die DSFA besonders relevant, weil drei Faktoren zusammenkommen:

  1. Automatisierte Entscheidungsfindung: KI-Agenten treffen Entscheidungen, die Menschen direkt betreffen – von der Kreditwürdigkeitsprüfung bis zur Priorisierung von Serviceanfragen.
  2. Umfangreiche Datenverarbeitung: Large Language Models und Multi-Agenten-Systeme verarbeiten große Datenmengen, oft aus verschiedenen Quellen.
  3. Fehlende Transparenz: Die Entscheidungswege eines LLM sind nicht ohne Weiteres nachvollziehbar – genau das macht die Risikoanalyse so wichtig.

Mit dem EU AI Act, der ab August 2026 vollständig gilt, wird die DSFA für Hochrisiko-KI-Systeme faktisch zur Pflicht. Wer jetzt keinen Prozess hat, wird dann unter Zeitdruck handeln müssen.

Wann ist eine DSFA Pflicht?

Die DSGVO schreibt eine DSFA vor, wenn eine Verarbeitung „voraussichtlich ein hohes Risiko” für Betroffene birgt. Für KI-Systeme trifft das in der Regel zu, wenn mindestens zwei der folgenden Kriterien erfüllt sind:

  • Profiling oder automatisierte Entscheidungen mit rechtlicher oder erheblicher Wirkung
  • Systematische Überwachung von Personen (z. B. Sentiment-Analyse in Kundengesprächen)
  • Verarbeitung besonderer Kategorien (Gesundheitsdaten, biometrische Daten)
  • Umfangreiche Verarbeitung personenbezogener Daten
  • Neue Technologien – KI-Agenten fallen fast immer in diese Kategorie

In der Praxis bedeutet das: Jeder KI-Agent, der mit personenbezogenen Daten arbeitet und eigenständig Entscheidungen trifft oder vorbereitet, braucht eine DSFA.

Die fünf Schritte einer DSFA für KI-Systeme

Schritt 1: Systematische Beschreibung der Verarbeitung

Dokumentieren Sie präzise, was der KI-Agent tut:

  • Welche Daten werden verarbeitet (Input)?
  • Welche Entscheidungen trifft der Agent (Output)?
  • Welche Autonomiestufe hat der Agent (L1–L5)?
  • Welche Drittanbieter-Modelle oder APIs sind beteiligt?
  • Wo werden Daten gespeichert, übertragen und gelöscht?

Dieser Schritt wird häufig unterschätzt. Ohne eine vollständige Verarbeitungsbeschreibung ist die Risikobewertung wertlos.

Schritt 2: Notwendigkeit und Verhältnismäßigkeit prüfen

Beantworten Sie drei Kernfragen:

  1. Ist die Verarbeitung für den Zweck erforderlich? Ein KI-Agent, der Bewerbungen vorsortiert, braucht keine Gesundheitsdaten.
  2. Gibt es mildere Mittel? Kann ein regelbasiertes System den gleichen Zweck erfüllen?
  3. Ist der Eingriff verhältnismäßig? Steht der Nutzen im Verhältnis zum Risiko für Betroffene?

Schritt 3: Risiken für Betroffene bewerten

Bewerten Sie die Risiken systematisch – nicht aus Unternehmenssicht, sondern aus der Perspektive der betroffenen Personen:

RisikokategorieBeispiel bei KI-AgentenBewertungsfrage
DiskriminierungBias in Trainingsdaten führt zu systematischer BenachteiligungWurden die Trainingsdaten auf Bias geprüft?
IntransparenzBetroffene verstehen nicht, warum eine Entscheidung gefallen istGibt es eine verständliche Erklärung?
KontrollverlustBetroffene können Entscheidungen nicht anfechtenGibt es einen Widerspruchsprozess?
DatenverlustLLM-Prompts mit personenbezogenen Daten werden extern verarbeitetWo werden Daten verarbeitet und gespeichert?
ÜberwachungAgent erstellt Verhaltensprofile ohne Wissen der BetroffenenWerden Betroffene informiert?

Schritt 4: Schutzmaßnahmen definieren

Für jedes identifizierte Risiko brauchen Sie eine technische oder organisatorische Maßnahme:

  • Gegen Bias: Regelmäßige Audits der Agenten-Entscheidungen, Fairness-Metriken
  • Gegen Intransparenz: Erklärbare Entscheidungspfade, Audit-Trails mit Reasoning-Logs
  • Gegen Kontrollverlust: Human-in-the-Loop bei kritischen Entscheidungen, Widerspruchsverfahren
  • Gegen Datenverlust: Datenminimierung in Prompts, On-Premise-Modelle für sensible Daten
  • Gegen Überwachung: Zweckbindung, automatische Löschfristen, Transparenzberichte

Schritt 5: Dokumentation und laufende Überprüfung

Eine DSFA ist kein einmaliges Dokument. Sie muss aktualisiert werden, wenn sich der KI-Agent verändert – neues Modell, neue Datenquellen, höhere Autonomiestufe. Planen Sie quartalsweise Reviews ein.

Die drei häufigsten Fehler

Fehler 1: DSFA wird als Formalität behandelt. Teams füllen ein Template aus, ohne die tatsächlichen Risiken zu analysieren. Eine DSFA, die keine konkreten Maßnahmen produziert, ist nutzlos.

Fehler 2: Die IT macht die DSFA allein. Eine DSFA braucht Datenschutzbeauftragten, Fachbereich, IT und idealerweise einen externen Blick. Nur im Zusammenspiel entsteht eine vollständige Risikobewertung.

Fehler 3: Die DSFA kommt zu spät. Wenn der Agent schon produktiv ist und dann Risiken identifiziert werden, stehen Sie vor der Wahl: Abschalten oder akzeptieren. Beides ist teuer.

DSFA und EU AI Act: Doppelte Pflicht

Ab August 2026 müssen Hochrisiko-KI-Systeme nach dem EU AI Act ein Konformitätsbewertungsverfahren durchlaufen. Die gute Nachricht: Eine sauber durchgeführte DSFA deckt einen großen Teil der AI-Act-Anforderungen bereits ab – insbesondere Risikobewertung, Transparenzpflichten und menschliche Aufsicht.

Wer jetzt in DSFA-Prozesse investiert, spart später bei der AI-Act-Compliance.

Fazit: Die DSFA ist kein Bremsklotz – sie ist ein Qualitätsfilter

Eine gute DSFA zwingt Sie, die richtigen Fragen zu stellen, bevor der KI-Agent produktiv wird: Welche Daten brauchen wir wirklich? Wie autonom darf der Agent sein? Wie stellen wir Nachvollziehbarkeit sicher?

Das sind keine Compliance-Fragen. Das sind Architektur-Fragen. Und je früher Sie sie beantworten, desto stabiler wird Ihr KI-System.


Sie planen den Einsatz von KI-Agenten und brauchen Klarheit über die regulatorischen Anforderungen? Das KI-Readiness Assessment von Nexus umfasst eine vollständige DSFA-Bewertung und zeigt Ihnen, wo Sie stehen – und was Sie vor dem Produktivstart klären müssen.

Hat Ihnen dieser Artikel geholfen? Auf LinkedIn teilen