Einführung
Transparenz ist einer der Grundpfeiler des EU AI Act. Die Verordnung stellt sicher, dass Menschen wissen, wann sie mit KI interagieren und wie KI-Systeme Entscheidungen treffen.
Wer ist betroffen?
Die Transparenzpflichten gelten für verschiedene Akteure:
- Anbieter (Provider): Wer KI-Systeme entwickelt oder auf den Markt bringt
- Betreiber (Deployer): Wer KI-Systeme im eigenen Betrieb einsetzt
- Importeure und Händler: Wer KI-Systeme in die EU einführt oder vertreibt
Transparenzpflichten nach Risikoklasse
Alle KI-Systeme mit Interaktion
Grundlegende Transparenzpflichten gelten für alle KI-Systeme, die mit natürlichen Personen interagieren:
- KI-Interaktion offenlegen: Nutzer müssen informiert werden, dass sie mit einem KI-System interagieren
- Deepfake-Kennzeichnung: KI-generierte oder manipulierte Bild-, Audio- oder Videoinhalte müssen gekennzeichnet werden
- KI-generierte Texte: Texte, die zu Informationszwecken veröffentlicht werden, müssen als KI-generiert erkennbar sein
Umsetzungsbeispiel
Ein einfacher Hinweis wie "Dieser Text wurde mit Unterstützung von KI erstellt" oder ein KI-Badge neben dem Chatfenster kann bereits ausreichen. Wichtig ist die Sichtbarkeit und Verständlichkeit.
Hochrisiko-KI-Systeme
Zusätzliche Transparenzanforderungen:
- Technische Dokumentation mit Beschreibung der Funktionsweise
- Gebrauchsanweisung mit Informationen über Leistung und Einschränkungen
- Protokollierung aller relevanten Vorgänge (Logging)
- Informationen über Trainingsdaten und Validierungsmethoden
Technische Dokumentation aufbauen?
Von Logging-Systemen bis zur Gebrauchsanweisung — Creativate AI Studio unterstuetzt Sie bei der technischen Umsetzung aller Transparenzanforderungen fuer Hochrisiko-KI.
Technische Umsetzung
Kennzeichnung in der Praxis
Empfohlene Kennzeichnungsmethoden:
├── Chatbots / Assistenten
│ ├── Banner: "KI-gestützter Assistent"
│ ├── Disclaimer vor der Interaktion
│ └── Persistenter Hinweis in der UI
├── Generierte Inhalte
│ ├── Wasserzeichen (C2PA / Content Credentials)
│ ├── Metadata-Tags in Dateien
│ └── Sichtbare Kennzeichnung
└── Entscheidungssysteme
├── Erklärung der Entscheidungslogik
├── Konfidenzwerte anzeigen
└── Alternative Optionen aufzeigen
Logging-Anforderungen
Für Hochrisiko-Systeme müssen folgende Daten protokolliert werden:
| Datenpunkt | Aufbewahrung |
|---|---|
| Zeitpunkt der Nutzung | Min. 6 Monate |
| Eingabedaten (Referenz) | Gemäß Zweck |
| Ausgabedaten | Min. 6 Monate |
| Systemversion | Dauerhaft |
| Fehlerereignisse | Min. 6 Monate |
| Menschliche Eingriffe | Min. 6 Monate |
Datenschutz beachten
Die Logging-Pflichten des AI Act müssen mit den Minimierungsanforderungen der DSGVO in Einklang gebracht werden. Protokollieren Sie nur das Notwendige und schützen Sie personenbezogene Daten.
Checkliste Transparenz
- KI-Systeme inventarisiert und klassifiziert
- Nutzerhinweise für alle interaktiven KI-Systeme implementiert
- Deepfake-Kennzeichnung eingerichtet
- Technische Dokumentation für Hochrisiko-KI erstellt
- Logging-System implementiert
- Erklärbare KI-Methoden evaluiert
- Schulungen für Mitarbeiter durchgeführt
Ausblick
Die Transparenzpflichten werden schrittweise verschärft. Unternehmen sollten jetzt mit der Umsetzung beginnen, um bis August 2026 compliant zu sein.
Rechtliche Klarheit gefragt?
Für spezifische Rechtsfragen zum AI Act und zur DSGVO steht Ihnen spezialisierte Rechtsberatung mit Fokus auf KI-Regulierung, Datenschutz und Compliance-Strukturen zur Verfuegung.
Unabhaengige Rechtsberatung. Keine automatisierte Rechtsauskunft. Die Plattform ai-playbook.eu bietet keine Rechtsberatung.
Nicht sicher, wo Sie stehen?
Wenn Ihr KI-Anwendungsfall nicht eindeutig in eine Kategorie passt, senden Sie uns eine kurze Beschreibung — wir weisen Sie in die richtige Richtung.