Überblick
Der EU AI Act (Verordnung (EU) 2024/1689) klassifiziert KI-Systeme in vier Risikoklassen. Je höher das Risiko, desto strenger die Anforderungen. Dieses risikobasierte System ist das Herzstück der Regulierung.
Die vier Risikoklassen
1. Unannehmbares Risiko (Verboten)
KI-Systeme, die als Bedrohung für Menschen gelten, sind vollständig verboten:
- Social Scoring durch öffentliche Stellen
- Biometrische Echtzeit-Fernidentifizierung in öffentlichen Räumen (mit Ausnahmen)
- Manipulation durch unterschwellige Techniken
- Ausnutzung von Schwächen bestimmter Personengruppen
- Emotionserkennung am Arbeitsplatz und in Bildungseinrichtungen
Verbotene Praktiken
Verbotene KI-Systeme dürfen weder entwickelt, eingesetzt noch auf den Markt gebracht werden. Verstöße können mit Bußgeldern von bis zu 35 Mio. EUR oder 7 % des weltweiten Jahresumsatzes geahndet werden.
2. Hohes Risiko
KI-Systeme mit erheblichem Einfluss auf Grundrechte oder Sicherheit:
- Biometrische Identifizierung und Kategorisierung
- Kritische Infrastruktur (Energie, Verkehr, Wasser)
- Bildung und Berufsausbildung (Zugang, Bewertung)
- Beschäftigung (Rekrutierung, Bewertung, Kündigung)
- Wesentliche Dienstleistungen (Kreditvergabe, Versicherung)
- Strafverfolgung und Grenzkontrolle
- Justiz und demokratische Prozesse
Anforderungen für Hochrisiko-KI:
- Risikomanagementsystem
- Daten-Governance und Datenqualität
- Technische Dokumentation
- Protokollierung (Logging)
- Transparenz und Informationspflichten
- Menschliche Aufsicht
- Genauigkeit, Robustheit, Cybersicherheit
Hochrisiko-KI-System im Einsatz?
Fuer die Entwicklung und den Betrieb von Hochrisiko-KI-Systemen ist spezialisierte Expertise entscheidend. Arbeiten Sie mit Creativate AI Studio zusammen, um Anforderungen zu erfuellen und robuste Architekturen aufzubauen.
3. Begrenztes Risiko (Transparenzpflichten)
KI-Systeme, die mit Menschen interagieren, müssen Transparenzanforderungen erfüllen:
- Chatbots: Nutzer müssen wissen, dass sie mit KI interagieren
- Deepfakes: Müssen als KI-generiert gekennzeichnet werden
- Emotionserkennung: Betroffene müssen informiert werden
- KI-generierte Inhalte: Müssen als solche gekennzeichnet werden
4. Minimales Risiko
Die meisten KI-Systeme fallen in diese Kategorie und unterliegen keinen spezifischen Pflichten:
- Spam-Filter
- KI in Videospielen
- Empfehlungssysteme (mit Einschränkungen)
- Industrielle Anwendungen ohne Sicherheitsrelevanz
Zeitplan
| Meilenstein | Datum |
|---|---|
| Inkrafttreten | August 2024 |
| Verbot unannehmbarer KI | Februar 2025 |
| GPAI-Regeln anwendbar | August 2025 |
| Hochrisiko-KI (Anhang III) | August 2026 |
| Vollständige Anwendung | August 2027 |
General Purpose AI (GPAI)
Für allgemeine KI-Modelle (wie GPT, Claude, Gemini) gelten eigene Regeln. Anbieter müssen technische Dokumentation bereitstellen und das Urheberrecht beachten. Modelle mit systemischem Risiko unterliegen zusätzlichen Pflichten.
Nächste Schritte
- Inventur aller eingesetzten KI-Systeme durchführen
- Risikoklassifizierung für jedes System vornehmen
- Gap-Analyse zwischen Ist-Zustand und Anforderungen
- Maßnahmenplan erstellen und priorisieren
Hilfe bei der Umsetzung?
Arbeiten Sie mit Creativate AI Studio zusammen, um Ihre KI-Systeme zu klassifizieren, eine Gap-Analyse durchzufuehren und einen konkreten Massnahmenplan zu erstellen — technisch fundiert und regelkonform.
Rechtliche Klarheit gefragt?
Für spezifische Rechtsfragen zum AI Act und zur DSGVO steht Ihnen spezialisierte Rechtsberatung mit Fokus auf KI-Regulierung, Datenschutz und Compliance-Strukturen zur Verfuegung.
Unabhaengige Rechtsberatung. Keine automatisierte Rechtsauskunft. Die Plattform ai-playbook.eu bietet keine Rechtsberatung.
Nicht sicher, wo Sie stehen?
Wenn Ihr KI-Anwendungsfall nicht eindeutig in eine Kategorie passt, senden Sie uns eine kurze Beschreibung — wir weisen Sie in die richtige Richtung.