Risikoklassen des EU AI Act

Die vier Risikoklassen des EU AI Act erklärt – von minimalem Risiko bis zu verbotenen KI-Praktiken.

1. Juli 20253 min read
EU AI ActRisikoklassenComplianceRegulierung

Überblick

Der EU AI Act (Verordnung (EU) 2024/1689) klassifiziert KI-Systeme in vier Risikoklassen. Je höher das Risiko, desto strenger die Anforderungen. Dieses risikobasierte System ist das Herzstück der Regulierung.

Die vier Risikoklassen

1. Unannehmbares Risiko (Verboten)

KI-Systeme, die als Bedrohung für Menschen gelten, sind vollständig verboten:

  • Social Scoring durch öffentliche Stellen
  • Biometrische Echtzeit-Fernidentifizierung in öffentlichen Räumen (mit Ausnahmen)
  • Manipulation durch unterschwellige Techniken
  • Ausnutzung von Schwächen bestimmter Personengruppen
  • Emotionserkennung am Arbeitsplatz und in Bildungseinrichtungen

Verbotene Praktiken

Verbotene KI-Systeme dürfen weder entwickelt, eingesetzt noch auf den Markt gebracht werden. Verstöße können mit Bußgeldern von bis zu 35 Mio. EUR oder 7 % des weltweiten Jahresumsatzes geahndet werden.

2. Hohes Risiko

KI-Systeme mit erheblichem Einfluss auf Grundrechte oder Sicherheit:

  • Biometrische Identifizierung und Kategorisierung
  • Kritische Infrastruktur (Energie, Verkehr, Wasser)
  • Bildung und Berufsausbildung (Zugang, Bewertung)
  • Beschäftigung (Rekrutierung, Bewertung, Kündigung)
  • Wesentliche Dienstleistungen (Kreditvergabe, Versicherung)
  • Strafverfolgung und Grenzkontrolle
  • Justiz und demokratische Prozesse

Anforderungen für Hochrisiko-KI:

  1. Risikomanagementsystem
  2. Daten-Governance und Datenqualität
  3. Technische Dokumentation
  4. Protokollierung (Logging)
  5. Transparenz und Informationspflichten
  6. Menschliche Aufsicht
  7. Genauigkeit, Robustheit, Cybersicherheit

Hochrisiko-KI-System im Einsatz?

Fuer die Entwicklung und den Betrieb von Hochrisiko-KI-Systemen ist spezialisierte Expertise entscheidend. Arbeiten Sie mit Creativate AI Studio zusammen, um Anforderungen zu erfuellen und robuste Architekturen aufzubauen.

3. Begrenztes Risiko (Transparenzpflichten)

KI-Systeme, die mit Menschen interagieren, müssen Transparenzanforderungen erfüllen:

  • Chatbots: Nutzer müssen wissen, dass sie mit KI interagieren
  • Deepfakes: Müssen als KI-generiert gekennzeichnet werden
  • Emotionserkennung: Betroffene müssen informiert werden
  • KI-generierte Inhalte: Müssen als solche gekennzeichnet werden

4. Minimales Risiko

Die meisten KI-Systeme fallen in diese Kategorie und unterliegen keinen spezifischen Pflichten:

  • Spam-Filter
  • KI in Videospielen
  • Empfehlungssysteme (mit Einschränkungen)
  • Industrielle Anwendungen ohne Sicherheitsrelevanz

Zeitplan

MeilensteinDatum
InkrafttretenAugust 2024
Verbot unannehmbarer KIFebruar 2025
GPAI-Regeln anwendbarAugust 2025
Hochrisiko-KI (Anhang III)August 2026
Vollständige AnwendungAugust 2027

General Purpose AI (GPAI)

Für allgemeine KI-Modelle (wie GPT, Claude, Gemini) gelten eigene Regeln. Anbieter müssen technische Dokumentation bereitstellen und das Urheberrecht beachten. Modelle mit systemischem Risiko unterliegen zusätzlichen Pflichten.

Nächste Schritte

  1. Inventur aller eingesetzten KI-Systeme durchführen
  2. Risikoklassifizierung für jedes System vornehmen
  3. Gap-Analyse zwischen Ist-Zustand und Anforderungen
  4. Maßnahmenplan erstellen und priorisieren

Hilfe bei der Umsetzung?

Arbeiten Sie mit Creativate AI Studio zusammen, um Ihre KI-Systeme zu klassifizieren, eine Gap-Analyse durchzufuehren und einen konkreten Massnahmenplan zu erstellen — technisch fundiert und regelkonform.

Rechtliche Klarheit gefragt?

Für spezifische Rechtsfragen zum AI Act und zur DSGVO steht Ihnen spezialisierte Rechtsberatung mit Fokus auf KI-Regulierung, Datenschutz und Compliance-Strukturen zur Verfuegung.

Unabhaengige Rechtsberatung. Keine automatisierte Rechtsauskunft. Die Plattform ai-playbook.eu bietet keine Rechtsberatung.

Nicht sicher, wo Sie stehen?

Wenn Ihr KI-Anwendungsfall nicht eindeutig in eine Kategorie passt, senden Sie uns eine kurze Beschreibung — wir weisen Sie in die richtige Richtung.

Verwandte Artikel