Verbotene KI-Praktiken nach Art. 5 EU AI Act

Welche KI-Praktiken sind nach Art. 5 EU AI Act vollständig verboten? Detaillierte Übersicht aller verbotenen Systeme, Ausnahmen, Abgrenzungen und Bußgeldrisiken.

11. Februar 20264 min read
EU AI ActVerbotene KIArt. 5Social ScoringBiometrieCompliance

Überblick

Der EU AI Act folgt einem risikobasierten Ansatz. Während viele KI-Systeme reguliert oder als Hochrisiko eingestuft werden, gibt es eine kleine, klar definierte Kategorie von vollständig verbotenen KI-Praktiken.

Diese Praktiken gelten als unvereinbar mit den Grundrechten der Europäischen Union. Sie sind nicht zulassungsfähig – auch nicht mit zusätzlichen Sicherheitsmaßnahmen.

Seit Februar 2025 sind diese Verbote unmittelbar anwendbar.

Dieser Beitrag erläutert:

  • Alle verbotenen Praktiken nach Art. 5
  • Politische und grundrechtliche Hintergründe
  • Ausnahmen (z. B. Strafverfolgung)
  • Abgrenzung zu erlaubten Systemen
  • Bußgeldrisiken

Grundprinzip: Schutz fundamentaler Rechte

Art. 5 verbietet KI-Systeme, die:

  • Menschen manipulieren
  • systematisch diskriminieren
  • Grundrechte massiv beeinträchtigen
  • zu gesellschaftlicher Überwachung führen

Absolute Verbote

Im Gegensatz zu Hochrisiko-KI sind diese Systeme nicht regulierbar, sondern vollständig untersagt.

Manipulative KI-Systeme

Verboten sind Systeme, die:

  • subliminale Techniken einsetzen
  • das Verhalten von Personen wesentlich beeinflussen
  • Entscheidungsfreiheit untergraben
  • Schaden verursachen oder verursachen können

Beispiel: KI, die psychologische Schwächen ausnutzt, um Kaufentscheidungen zu manipulieren.

Ausnutzung schutzbedürftiger Personen

Untersagt sind Systeme, die:

  • Kinder
  • ältere Menschen
  • Menschen mit Behinderungen

gezielt manipulieren oder ausnutzen.

Beispiel: KI-basierte Spielmechanismen, die gezielt Minderjährige zu In-App-Käufen drängen.

Social Scoring durch staatliche Stellen

Verboten ist:

  • Bewertung von Bürgern durch staatliche Stellen
  • auf Basis sozialen Verhaltens oder Persönlichkeitsmerkmalen
  • mit negativen gesellschaftlichen Folgen

Dies soll Systeme verhindern, die an autoritäre Überwachungsmodelle erinnern.

Biometrische Echtzeit-Fernidentifizierung im öffentlichen Raum

Grundsätzlich verboten ist:

  • Echtzeit-Gesichtserkennung im öffentlichen Raum

Ausnahmen bestehen nur unter engen Voraussetzungen bei:

  • Terrorismusbekämpfung
  • Suche nach schweren Straftätern
  • akuter Gefahrenabwehr

Diese Ausnahmen unterliegen strengen Genehmigungsverfahren.

Emotionserkennung am Arbeitsplatz oder in Bildungseinrichtungen

Verboten ist der Einsatz von KI zur:

  • Analyse emotionaler Zustände
  • Bewertung von Mitarbeitenden
  • Leistungsanalyse von Schülern oder Studierenden

Begründung: Hohe Fehleranfälligkeit und erhebliche Diskriminierungsrisiken.

Prädiktive Polizeiarbeit auf Basis personenbezogener Daten

Untersagt sind Systeme, die:

  • Straftaten vorhersagen
  • allein auf Profiling beruhen
  • individuelle Risikobewertungen erstellen

Ziel ist es, diskriminierende Prognosemodelle zu verhindern.

Ungezielte Gesichtsdatenbanken

Verboten ist:

  • Massensammlung von Gesichtsbildern
  • Scraping aus dem Internet
  • Aufbau großflächiger biometrischer Datenbanken

Biometrische Kategorisierung nach sensiblen Merkmalen

Untersagt ist die Einteilung von Personen nach:

  • Ethnie
  • Religion
  • sexueller Orientierung
  • politischen Überzeugungen

Solche Systeme gelten als besonders grundrechtsgefährdend.

Übersichtstabelle

Verbotene PraxisZiel des Verbots
Manipulative KISchutz der Entscheidungsfreiheit
Ausnutzung SchutzbedürftigerSchutz vulnerabler Gruppen
Social ScoringVerhinderung staatlicher Überwachung
Echtzeit-BiometrieSchutz der Privatsphäre
Emotionserkennung (Arbeitsplatz/Bildung)Schutz vor Fehlinterpretation
Predictive PolicingVerhinderung Diskriminierung
GesichtsdatenbankenSchutz vor Massenüberwachung
Biometrische KategorisierungSchutz vor Diskriminierung

Abgrenzung zu Hochrisiko-KI

Nicht jede biometrische Anwendung ist verboten.

Beispiel:

  • Biometrische Authentifizierung im privaten Umfeld — erlaubt
  • Echtzeit-Überwachung im öffentlichen Raum — verboten

Entscheidend sind:

  • Einsatzkontext
  • Zweck
  • Zielgruppe
  • Intensität des Eingriffs

Kontext entscheidet

Ein identisches technisches System kann erlaubt oder verboten sein – abhängig vom Anwendungsfall.

Bußgelder nach Art. 99

Verstöße gegen Art. 5 können sanktioniert werden mit:

  • bis zu 35 Millionen Euro oder
  • bis zu 7 % des weltweiten Jahresumsatzes

Dies ist die höchste Bußgeldstufe im AI Act.

Typische Fehlannahmen

AnnahmeRealität
„Emotionserkennung ist generell verboten"Nur im Arbeits- und Bildungsumfeld
„Biometrie ist grundsätzlich untersagt"Nur bestimmte Anwendungen
„Privatwirtschaft ist nicht betroffen"Auch Unternehmen müssen Verbote beachten

Verbindung zur DSGVO

Viele verbotene Praktiken überschneiden sich mit:

  • Art. 9 DSGVO (besondere Kategorien)
  • Art. 22 DSGVO (automatisierte Entscheidungen)
  • Grundsätzen aus Art. 5 DSGVO

Die parallele Prüfung ist erforderlich.

Praktische Umsetzung

Schritt 1 – KI-Inventur

  • Welche biometrischen Funktionen existieren?
  • Werden Emotionen analysiert?
  • Erfolgt Profiling mit sensiblen Daten?

Schritt 2 – Zweckprüfung

  • Wird das System im öffentlichen Raum eingesetzt?
  • Betrifft es schutzbedürftige Gruppen?

Schritt 3 – Dokumentation

  • Nachweis der Rechtmäßigkeit
  • Zweckdefinition
  • Risikoanalyse

Schritt 4 – Abschaltung oder Anpassung

Falls ein Verbotstatbestand erfüllt ist:

  • Funktion deaktivieren
  • Systemarchitektur anpassen
  • Alternativlösungen prüfen

Hilfe bei der Umsetzung?

Arbeiten Sie mit Creativate AI Studio zusammen, um KI-Systeme zu entwerfen, zu validieren und zu implementieren — technisch fundiert, regelkonform und produktionsbereit.

Rechtliche Klarheit gefragt?

Für spezifische Rechtsfragen zum AI Act und zur DSGVO steht Ihnen spezialisierte Rechtsberatung mit Fokus auf KI-Regulierung, Datenschutz und Compliance-Strukturen zur Verfuegung.

Unabhaengige Rechtsberatung. Keine automatisierte Rechtsauskunft. Die Plattform ai-playbook.eu bietet keine Rechtsberatung.

Nächste Schritte

  1. Prüfen Sie Ihre Systeme auf Art.-5-Tatbestände.
  2. Dokumentieren Sie Einsatzkontext und Zweckbestimmung.
  3. Überprüfen Sie biometrische und emotionale Analysefunktionen.
  4. Bewerten Sie Diskriminierungsrisiken.
  5. Holen Sie im Zweifel rechtliche Prüfung ein.

Hilfe bei der Umsetzung?

Arbeiten Sie mit Creativate AI Studio zusammen, um KI-Systeme zu entwerfen, zu validieren und zu implementieren — technisch fundiert, regelkonform und produktionsbereit.

Rechtliche Klarheit gefragt?

Für spezifische Rechtsfragen zum AI Act und zur DSGVO steht Ihnen spezialisierte Rechtsberatung mit Fokus auf KI-Regulierung, Datenschutz und Compliance-Strukturen zur Verfuegung.

Unabhaengige Rechtsberatung. Keine automatisierte Rechtsauskunft. Die Plattform ai-playbook.eu bietet keine Rechtsberatung.

Verwandte Artikel