Art. 35 DSGVO – Datenschutz-Folgenabschätzung (DSFA) für KI-Systeme

Wann ist eine Datenschutz-Folgenabschätzung nach Art. 35 DSGVO bei KI-Systemen erforderlich? Struktur, Ablauf, KI-spezifische Risiken und Verbindung zum EU AI Act.

11. Februar 20264 min read
DSGVOArt. 35DSFADatenschutz-FolgenabschätzungProfilingKI-Compliance

Überblick

Die Datenschutz-Folgenabschätzung (DSFA) ist eines der zentralen Risikoinstrumente der DSGVO. Sie wird erforderlich, wenn eine Verarbeitung voraussichtlich ein hohes Risiko für die Rechte und Freiheiten natürlicher Personen mit sich bringt.

Im Kontext von KI-Systemen ist die DSFA besonders relevant. Profiling, automatisierte Entscheidungen, großflächige Datenverarbeitung oder sensible Datennutzung lösen häufig eine Prüfpflicht aus.

Dieser Beitrag erläutert:

  • Wann eine DSFA verpflichtend ist
  • Den strukturierten 4-Phasen-Prozess
  • KI-spezifische Risiken
  • Verbindung zum EU AI Act
  • Ein praxisnahes Beispiel für einen KI-Chatbot

Wann ist eine DSFA erforderlich?

Nach Art. 35 DSGVO ist eine DSFA erforderlich, wenn:

  • neue Technologien eingesetzt werden
  • eine systematische und umfassende Bewertung persönlicher Aspekte erfolgt
  • automatisierte Entscheidungen mit erheblichen Auswirkungen stattfinden
  • sensible Daten in großem Umfang verarbeitet werden
  • eine systematische Überwachung stattfindet

Viele Aufsichtsbehörden haben Positivlisten veröffentlicht, die typische DSFA-Fälle konkretisieren.

KI = erhöhte Prüfpflicht

Der Einsatz von KI gilt regelmäßig als „neue Technologie" und sollte stets DSFA-geprüft werden.

Typische KI-Fälle mit DSFA-Pflicht

SzenarioDSFA wahrscheinlich?
KreditscoringJa
Recruiting-KIJa
Medizinische Diagnose-KIJa
Interne ProduktivitätsanalyseEinzelfallprüfung
Marketing-ChatbotAbhängig von Umfang

Der 4-Phasen-Prozess der DSFA

Art. 35 Abs. 7 DSGVO beschreibt vier Kernelemente:

Systematische Beschreibung der Verarbeitung

  • Zweck
  • Ablauf
  • Datenkategorien
  • Betroffene Personengruppen
  • Empfänger
  • Speicherdauer

Im KI-Kontext zusätzlich:

  • Modelltyp
  • Trainingsdaten
  • Inferenzprozess
  • Automatisierungsgrad

Bewertung von Notwendigkeit und Verhältnismäßigkeit

Zu prüfen ist:

  • Ist die Verarbeitung erforderlich?
  • Gibt es mildere Mittel?
  • Ist der Zweck legitim?

Hier wird die Zweckbindung aus Art. 5 konkretisiert.

Risikobewertung

Bewertet werden:

  • Eintrittswahrscheinlichkeit
  • Schwere möglicher Schäden
  • Betroffenheit von Grundrechten

KI-spezifische Risiken:

  • Bias und Diskriminierung
  • Fehlentscheidungen
  • Intransparenz
  • Kontrollverlust
  • Modellmanipulation

Bias-Risiken

Diskriminierungspotenziale sind ein zentrales Prüfkriterium bei KI-Systemen.

Abhilfemaßnahmen

Maßnahmen können umfassen:

  • Datenminimierung
  • Pseudonymisierung
  • Menschliche Überprüfung
  • Transparenzmaßnahmen
  • Logging
  • Zugriffsbeschränkung

Ziel ist die Reduzierung des Risikos auf ein akzeptables Maß.

Beispiel: DSFA für einen KI-Chatbot

Systembeschreibung

  • Chatbot zur Beantwortung von Kundenanfragen
  • Verarbeitung von Kundendaten
  • Einsatz eines Sprachmodells

Risiken

  • Falsche Auskünfte
  • Offenlegung sensibler Daten
  • Unklare Trainingsdatenbasis

Maßnahmen

  • Logging
  • Inhaltsfilter
  • menschliche Eskalationsmöglichkeit
  • Begrenzte Datenspeicherung

Verbindung zum EU AI Act

Die DSFA überschneidet sich mit:

  • Risikomanagementpflichten
  • Grundrechte-Folgenabschätzung (FRIA)
  • Dokumentationsanforderungen

Während die DSFA auf Datenschutz fokussiert ist, adressiert der AI Act breitere Grundrechtsrisiken.

Beide Prüfungen sollten integriert durchgeführt werden.

Wann muss die Aufsichtsbehörde konsultiert werden?

Wenn trotz Schutzmaßnahmen:

  • ein hohes Restrisiko verbleibt

muss gemäß Art. 36 DSGVO die zuständige Datenschutzaufsichtsbehörde konsultiert werden.

Dokumentationsanforderungen

Die DSFA muss:

  • schriftlich dokumentiert
  • regelmäßig überprüft
  • bei Systemänderungen aktualisiert

werden.

Typische Fehler

FehlerRisiko
Keine DSFA bei Hochrisiko-KIBußgeld
Pauschale RisikoanalyseUnzureichende Bewertung
Keine Aktualisierung bei ModelländerungVerstoß gegen Rechenschaftspflicht
Fehlende Einbindung DatenschutzbeauftragterOrganisatorisches Defizit

Praktische Umsetzung

Schritt 1 – Screening

  • Fällt das Projekt unter typische DSFA-Kriterien?

Schritt 2 – Interdisziplinäres Team

  • Recht
  • IT
  • Compliance
  • Fachabteilung

Schritt 3 – Strukturierte Dokumentation

  • Standardisierte Vorlage nutzen
  • Risiko-Matrix erstellen

Schritt 4 – Regelmäßige Aktualisierung

  • Bei Modell-Update
  • Bei Zweckänderung
  • Bei Datenquellenänderung

Strategische Empfehlung

DSFA sollte nicht als reine Pflicht verstanden werden, sondern als:

  • Governance-Instrument
  • Risikoreduktionsmechanismus
  • Vertrauensbaustein

Gerade bei KI-Projekten kann eine strukturierte DSFA Haftungsrisiken erheblich reduzieren.

Hilfe bei der Umsetzung?

Arbeiten Sie mit Creativate AI Studio zusammen, um KI-Systeme zu entwerfen, zu validieren und zu implementieren — technisch fundiert, regelkonform und produktionsbereit.

Rechtliche Klarheit gefragt?

Für spezifische Rechtsfragen zum AI Act und zur DSGVO steht Ihnen spezialisierte Rechtsberatung mit Fokus auf KI-Regulierung, Datenschutz und Compliance-Strukturen zur Verfuegung.

Unabhaengige Rechtsberatung. Keine automatisierte Rechtsauskunft. Die Plattform ai-playbook.eu bietet keine Rechtsberatung.

Nächste Schritte

  1. Prüfen Sie Ihr KI-Projekt auf DSFA-Relevanz.
  2. Nutzen Sie eine strukturierte DSFA-Vorlage.
  3. Bewerten Sie insbesondere Diskriminierungs- und Intransparenzrisiken.
  4. Integrieren Sie DSFA in Ihr AI-Governance-System.
  5. Dokumentieren und aktualisieren Sie regelmäßig.

Hilfe bei der Umsetzung?

Arbeiten Sie mit Creativate AI Studio zusammen, um KI-Systeme zu entwerfen, zu validieren und zu implementieren — technisch fundiert, regelkonform und produktionsbereit.

Rechtliche Klarheit gefragt?

Für spezifische Rechtsfragen zum AI Act und zur DSGVO steht Ihnen spezialisierte Rechtsberatung mit Fokus auf KI-Regulierung, Datenschutz und Compliance-Strukturen zur Verfuegung.

Unabhaengige Rechtsberatung. Keine automatisierte Rechtsauskunft. Die Plattform ai-playbook.eu bietet keine Rechtsberatung.

Verwandte Artikel