Überblick
Der EU AI Act folgt einem risikobasierten Ansatz. Während viele KI-Systeme reguliert oder als Hochrisiko eingestuft werden, gibt es eine kleine, klar definierte Kategorie von vollständig verbotenen KI-Praktiken.
Diese Praktiken gelten als unvereinbar mit den Grundrechten der Europäischen Union. Sie sind nicht zulassungsfähig – auch nicht mit zusätzlichen Sicherheitsmaßnahmen.
Seit Februar 2025 sind diese Verbote unmittelbar anwendbar.
Dieser Beitrag erläutert:
- Alle verbotenen Praktiken nach Art. 5
- Politische und grundrechtliche Hintergründe
- Ausnahmen (z. B. Strafverfolgung)
- Abgrenzung zu erlaubten Systemen
- Bußgeldrisiken
Grundprinzip: Schutz fundamentaler Rechte
Art. 5 verbietet KI-Systeme, die:
- Menschen manipulieren
- systematisch diskriminieren
- Grundrechte massiv beeinträchtigen
- zu gesellschaftlicher Überwachung führen
Absolute Verbote
Im Gegensatz zu Hochrisiko-KI sind diese Systeme nicht regulierbar, sondern vollständig untersagt.
Manipulative KI-Systeme
Verboten sind Systeme, die:
- subliminale Techniken einsetzen
- das Verhalten von Personen wesentlich beeinflussen
- Entscheidungsfreiheit untergraben
- Schaden verursachen oder verursachen können
Beispiel: KI, die psychologische Schwächen ausnutzt, um Kaufentscheidungen zu manipulieren.
Ausnutzung schutzbedürftiger Personen
Untersagt sind Systeme, die:
- Kinder
- ältere Menschen
- Menschen mit Behinderungen
gezielt manipulieren oder ausnutzen.
Beispiel: KI-basierte Spielmechanismen, die gezielt Minderjährige zu In-App-Käufen drängen.
Social Scoring durch staatliche Stellen
Verboten ist:
- Bewertung von Bürgern durch staatliche Stellen
- auf Basis sozialen Verhaltens oder Persönlichkeitsmerkmalen
- mit negativen gesellschaftlichen Folgen
Dies soll Systeme verhindern, die an autoritäre Überwachungsmodelle erinnern.
Biometrische Echtzeit-Fernidentifizierung im öffentlichen Raum
Grundsätzlich verboten ist:
- Echtzeit-Gesichtserkennung im öffentlichen Raum
Ausnahmen bestehen nur unter engen Voraussetzungen bei:
- Terrorismusbekämpfung
- Suche nach schweren Straftätern
- akuter Gefahrenabwehr
Diese Ausnahmen unterliegen strengen Genehmigungsverfahren.
Emotionserkennung am Arbeitsplatz oder in Bildungseinrichtungen
Verboten ist der Einsatz von KI zur:
- Analyse emotionaler Zustände
- Bewertung von Mitarbeitenden
- Leistungsanalyse von Schülern oder Studierenden
Begründung: Hohe Fehleranfälligkeit und erhebliche Diskriminierungsrisiken.
Prädiktive Polizeiarbeit auf Basis personenbezogener Daten
Untersagt sind Systeme, die:
- Straftaten vorhersagen
- allein auf Profiling beruhen
- individuelle Risikobewertungen erstellen
Ziel ist es, diskriminierende Prognosemodelle zu verhindern.
Ungezielte Gesichtsdatenbanken
Verboten ist:
- Massensammlung von Gesichtsbildern
- Scraping aus dem Internet
- Aufbau großflächiger biometrischer Datenbanken
Biometrische Kategorisierung nach sensiblen Merkmalen
Untersagt ist die Einteilung von Personen nach:
- Ethnie
- Religion
- sexueller Orientierung
- politischen Überzeugungen
Solche Systeme gelten als besonders grundrechtsgefährdend.
Übersichtstabelle
| Verbotene Praxis | Ziel des Verbots |
|---|---|
| Manipulative KI | Schutz der Entscheidungsfreiheit |
| Ausnutzung Schutzbedürftiger | Schutz vulnerabler Gruppen |
| Social Scoring | Verhinderung staatlicher Überwachung |
| Echtzeit-Biometrie | Schutz der Privatsphäre |
| Emotionserkennung (Arbeitsplatz/Bildung) | Schutz vor Fehlinterpretation |
| Predictive Policing | Verhinderung Diskriminierung |
| Gesichtsdatenbanken | Schutz vor Massenüberwachung |
| Biometrische Kategorisierung | Schutz vor Diskriminierung |
Abgrenzung zu Hochrisiko-KI
Nicht jede biometrische Anwendung ist verboten.
Beispiel:
- Biometrische Authentifizierung im privaten Umfeld — erlaubt
- Echtzeit-Überwachung im öffentlichen Raum — verboten
Entscheidend sind:
- Einsatzkontext
- Zweck
- Zielgruppe
- Intensität des Eingriffs
Kontext entscheidet
Ein identisches technisches System kann erlaubt oder verboten sein – abhängig vom Anwendungsfall.
Bußgelder nach Art. 99
Verstöße gegen Art. 5 können sanktioniert werden mit:
- bis zu 35 Millionen Euro oder
- bis zu 7 % des weltweiten Jahresumsatzes
Dies ist die höchste Bußgeldstufe im AI Act.
Typische Fehlannahmen
| Annahme | Realität |
|---|---|
| „Emotionserkennung ist generell verboten" | Nur im Arbeits- und Bildungsumfeld |
| „Biometrie ist grundsätzlich untersagt" | Nur bestimmte Anwendungen |
| „Privatwirtschaft ist nicht betroffen" | Auch Unternehmen müssen Verbote beachten |
Verbindung zur DSGVO
Viele verbotene Praktiken überschneiden sich mit:
- Art. 9 DSGVO (besondere Kategorien)
- Art. 22 DSGVO (automatisierte Entscheidungen)
- Grundsätzen aus Art. 5 DSGVO
Die parallele Prüfung ist erforderlich.
Praktische Umsetzung
Schritt 1 – KI-Inventur
- Welche biometrischen Funktionen existieren?
- Werden Emotionen analysiert?
- Erfolgt Profiling mit sensiblen Daten?
Schritt 2 – Zweckprüfung
- Wird das System im öffentlichen Raum eingesetzt?
- Betrifft es schutzbedürftige Gruppen?
Schritt 3 – Dokumentation
- Nachweis der Rechtmäßigkeit
- Zweckdefinition
- Risikoanalyse
Schritt 4 – Abschaltung oder Anpassung
Falls ein Verbotstatbestand erfüllt ist:
- Funktion deaktivieren
- Systemarchitektur anpassen
- Alternativlösungen prüfen
Hilfe bei der Umsetzung?
Arbeiten Sie mit Creativate AI Studio zusammen, um KI-Systeme zu entwerfen, zu validieren und zu implementieren — technisch fundiert, regelkonform und produktionsbereit.
Rechtliche Klarheit gefragt?
Für spezifische Rechtsfragen zum AI Act und zur DSGVO steht Ihnen spezialisierte Rechtsberatung mit Fokus auf KI-Regulierung, Datenschutz und Compliance-Strukturen zur Verfuegung.
Unabhaengige Rechtsberatung. Keine automatisierte Rechtsauskunft. Die Plattform ai-playbook.eu bietet keine Rechtsberatung.
Nächste Schritte
- Prüfen Sie Ihre Systeme auf Art.-5-Tatbestände.
- Dokumentieren Sie Einsatzkontext und Zweckbestimmung.
- Überprüfen Sie biometrische und emotionale Analysefunktionen.
- Bewerten Sie Diskriminierungsrisiken.
- Holen Sie im Zweifel rechtliche Prüfung ein.
Hilfe bei der Umsetzung?
Arbeiten Sie mit Creativate AI Studio zusammen, um KI-Systeme zu entwerfen, zu validieren und zu implementieren — technisch fundiert, regelkonform und produktionsbereit.
Rechtliche Klarheit gefragt?
Für spezifische Rechtsfragen zum AI Act und zur DSGVO steht Ihnen spezialisierte Rechtsberatung mit Fokus auf KI-Regulierung, Datenschutz und Compliance-Strukturen zur Verfuegung.
Unabhaengige Rechtsberatung. Keine automatisierte Rechtsauskunft. Die Plattform ai-playbook.eu bietet keine Rechtsberatung.