EU AI Act Risikoklassifizierung – Vorlage & Entscheidungsbaum

Schritt-für-Schritt-Template zur Klassifizierung eines KI-Systems nach dem EU AI Act – inkl. Verbotene Praktiken, Hochrisiko-Prüfung (Anhang III), Sicherheitskomponente und Dokumentationsanforderungen.

11. Februar 20264 min read
EU AI ActRisikoklassifizierungHochrisikoVerbotene PraktikenTemplateCompliance

Überblick

Der EU AI Act basiert auf einem risikobasierten Ansatz. Jedes KI-System muss einer Risikokategorie zugeordnet werden:

  1. Verbotene KI-Praktiken
  2. Hochrisiko-Systeme
  3. Transparenzpflichtige Systeme (begrenztes Risiko)
  4. Minimales Risiko

Diese Vorlage dient als strukturierte Arbeitshilfe zur Einordnung eines konkreten KI-Systems.

Wichtiger Hinweis

Die Risikoklassifizierung ist keine einmalige Formalität. Sie muss dokumentiert, regelmäßig überprüft und bei Systemänderungen aktualisiert werden.

Risikoklassifizierungs-Template

1️⃣ Systembeschreibung

1.1 Name des KI-Systems

  • Systembezeichnung:
  • Version:
  • Anbieter:
  • Betreiber (Deployer):

1.2 Zweckbestimmung

  • Welchem konkreten Zweck dient das System?
  • Wird es in einem sensiblen Bereich eingesetzt (HR, Finance, Healthcare, Bildung)?
  • Beeinflusst es Entscheidungen über Personen?

1.3 Funktionale Beschreibung

  • Art der KI (z. B. Klassifikation, Scoring, Generative KI)
  • Automatisierungsgrad (unterstützend / entscheidend)
  • Integriert in Produkt oder Standalone?

2️⃣ Schritt 1: Verbotene Praktiken (Art. 5)

Prüfen Sie, ob das System eine der folgenden Praktiken beinhaltet:

PrüffrageJa / Nein
Manipulative KI, die Verhalten unbewusst beeinflusst?
Ausnutzung von Schutzbedürftigen (z. B. Kinder)?
Social Scoring durch staatliche Stellen?
Biometrische Echtzeit-Fernidentifizierung im öffentlichen Raum?
Emotionserkennung am Arbeitsplatz oder in Bildungseinrichtungen?
Biometrische Kategorisierung sensibler Merkmale?

Wenn JA

Ist mindestens eine Frage mit „Ja" zu beantworten, ist das System grundsätzlich verboten.

3️⃣ Schritt 2: Hochrisiko-Systeme (Anhang III)

Prüfen Sie, ob das System in einen der folgenden Bereiche fällt:

BereichRelevanz (Ja/Nein)
Biometrische Identifizierung
Kritische Infrastruktur
Bildung & berufliche Ausbildung
Beschäftigung & HR
Zugang zu wesentlichen Dienstleistungen (z. B. Kredit)
Strafverfolgung
Migration & Grenzkontrolle
Justiz & demokratische Prozesse

Falls „Ja" → prüfen Sie Art. 6 Abs. 3 (Ausnahmeprüfung):

  • Hat das System nur geringe Auswirkungen?
  • Beeinflusst es keine wesentlichen Entscheidungen?

Wenn keine Ausnahme greift → Hochrisiko.

Dokumentationspflicht

Die Begründung für eine Hochrisiko- oder Nicht-Hochrisiko-Einstufung muss dokumentiert werden.

4️⃣ Schritt 3: Sicherheitskomponente

Ist das KI-System:

  • Bestandteil eines Produkts mit CE-Kennzeichnung?
  • Sicherheitsrelevant für ein reguliertes Produkt?

Falls ja, kann eine Hochrisiko-Einstufung auch unabhängig von Anhang III vorliegen.

5️⃣ Schritt 4: GPAI (General Purpose AI)

Handelt es sich um:

  • Ein allgemeines Basismodell?
  • Ein Modell mit systemischem Risiko?

Falls ja, greifen zusätzliche Pflichten nach Art. 51–56.

6️⃣ Schritt 5: Transparenzpflichten (Begrenztes Risiko)

Prüfen Sie:

PrüffrageJa/Nein
Interagiert das System direkt mit Menschen?
Erzeugt es synthetische Inhalte (Text, Bild, Audio)?
Wird Deepfake-Technologie verwendet?

Falls „Ja", sind Transparenz- und Kennzeichnungspflichten relevant.

7️⃣ Ergebnis der Risikoklassifizierung

KategorieErgebnis
Verboten
Hochrisiko
Begrenztes Risiko
Minimales Risiko

Begründung:

8️⃣ Folgemaßnahmen je Risikostufe

Verbotene Systeme

  • Entwicklung oder Einsatz einstellen
  • Rechtliche Beratung einholen

Hochrisiko-Systeme

  • Risikomanagementsystem implementieren
  • Daten-Governance dokumentieren
  • Technische Dokumentation erstellen
  • Konformitätsbewertung durchführen
  • CE-Kennzeichnung prüfen
  • Post-Market Monitoring etablieren

Begrenztes Risiko

  • Transparenzpflichten erfüllen
  • Kennzeichnung von KI-Interaktion
  • Deepfake-Hinweise integrieren

Minimales Risiko

  • Allgemeine Governance-Prüfung
  • Dokumentation aus Rechenschaftspflicht

9️⃣ Dokumentationsabschnitt

  • Datum der Klassifizierung:
  • Verantwortliche Person:
  • Interne Prüfung durch:
  • Letzte Aktualisierung:

Verbindung zur DSGVO

Unabhängig von der AI-Act-Risikostufe bleibt die DSGVO parallel anwendbar.

Hilfe bei der Umsetzung?

Arbeiten Sie mit Creativate AI Studio zusammen, um KI-Systeme zu entwerfen, zu validieren und zu implementieren — technisch fundiert, regelkonform und produktionsbereit.

Rechtliche Klarheit gefragt?

Für spezifische Rechtsfragen zum AI Act und zur DSGVO steht Ihnen spezialisierte Rechtsberatung mit Fokus auf KI-Regulierung, Datenschutz und Compliance-Strukturen zur Verfuegung.

Unabhaengige Rechtsberatung. Keine automatisierte Rechtsauskunft. Die Plattform ai-playbook.eu bietet keine Rechtsberatung.

Nicht sicher, wo Sie stehen?

Wenn Ihr KI-Anwendungsfall nicht eindeutig in eine Kategorie passt, senden Sie uns eine kurze Beschreibung — wir weisen Sie in die richtige Richtung.

Nächste Schritte

  1. Füllen Sie diese Vorlage für jedes KI-System aus.
  2. Dokumentieren Sie die Begründung der Einstufung nachvollziehbar.
  3. Prüfen Sie bei Hochrisiko-Systemen frühzeitig Konformitätsanforderungen.
  4. Integrieren Sie die Risikoklassifizierung in Ihre AI-Governance.
  5. Validieren Sie Ihre Einstufung bei Bedarf mit qualifizierten Expert:innen unter /experts.

Hilfe bei der Umsetzung?

Arbeiten Sie mit Creativate AI Studio zusammen, um KI-Systeme zu entwerfen, zu validieren und zu implementieren — technisch fundiert, regelkonform und produktionsbereit.

Rechtliche Klarheit gefragt?

Für spezifische Rechtsfragen zum AI Act und zur DSGVO steht Ihnen spezialisierte Rechtsberatung mit Fokus auf KI-Regulierung, Datenschutz und Compliance-Strukturen zur Verfuegung.

Unabhaengige Rechtsberatung. Keine automatisierte Rechtsauskunft. Die Plattform ai-playbook.eu bietet keine Rechtsberatung.

Verwandte Artikel