Pratiques d'IA interdites selon l'art. 5 de la Loi sur l'IA de l'UE

Quelles pratiques d'IA sont totalement interdites par l'art. 5 de la Loi sur l'IA ? Aperçu détaillé de tous les systèmes interdits, exceptions, distinctions et risques de sanctions.

11 février 20266 min de lecture
Loi sur l'IAIA interditeArt. 5Notation socialeBiométrieConformité

Aperçu

La Loi sur l'IA de l'UE suit une approche basée sur les risques. Alors que de nombreux systèmes d'IA sont réglementés ou classés comme à haut risque, il existe une catégorie restreinte et clairement définie de pratiques d'IA totalement interdites.

Ces pratiques sont considérées comme incompatibles avec les droits fondamentaux de l'Union européenne. Elles ne peuvent pas être autorisées -- même avec des mesures de protection supplémentaires.

Depuis février 2025, ces interdictions sont directement applicables.

Cet article explique :

  • Toutes les pratiques interdites selon l'art. 5
  • Le contexte politique et des droits fondamentaux
  • Les exceptions (p. ex. application de la loi)
  • La distinction avec les systèmes autorisés
  • Les risques de sanctions

Principe fondamental : Protection des droits fondamentaux

L'art. 5 interdit les systèmes d'IA qui :

  • Manipulent les personnes
  • Discriminent systématiquement
  • Portent massivement atteinte aux droits fondamentaux
  • Conduisent à une surveillance sociétale

Interdictions absolues

Contrairement à l'IA à haut risque, ces systèmes ne peuvent pas être réglementés -- ils sont totalement interdits.

Systèmes d'IA manipulateurs

Sont interdits les systèmes qui :

  • Utilisent des techniques subliminales
  • Influencent substantiellement le comportement des personnes
  • Sapent la liberté de choix
  • Causent ou sont susceptibles de causer un préjudice

Exemple : Une IA qui exploite les faiblesses psychologiques pour manipuler les décisions d'achat.

Exploitation de personnes vulnérables

Sont interdits les systèmes qui ciblent et manipulent ou exploitent :

  • Les enfants
  • Les personnes âgées
  • Les personnes en situation de handicap

Exemple : Des mécanismes de jeu basés sur l'IA qui poussent délibérément les mineurs vers des achats intégrés.

Notation sociale par les autorités publiques

Est interdit :

  • L'évaluation des citoyens par les autorités publiques
  • Basée sur le comportement social ou les traits de personnalité
  • Avec des conséquences sociétales négatives

L'objectif est de prévenir les systèmes rappelant des modèles de surveillance autoritaires.

Identification biométrique à distance en temps réel dans les espaces publics

Est généralement interdite :

  • La reconnaissance faciale en temps réel dans les espaces publics

Des exceptions n'existent que sous des conditions strictes pour :

  • La lutte contre le terrorisme
  • La recherche de criminels graves
  • La prévention de menaces aiguës

Ces exceptions sont soumises à des procédures d'autorisation strictes.

Reconnaissance des émotions sur le lieu de travail ou dans les établissements d'enseignement

Est interdit l'usage de l'IA pour :

  • L'analyse des états émotionnels
  • L'évaluation des employés
  • L'analyse des performances des élèves ou étudiants

Justification : Forte susceptibilité aux erreurs et risques de discrimination significatifs.

Police prédictive basée sur les données à caractère personnel

Sont interdits les systèmes qui :

  • Prédisent des infractions
  • Reposent uniquement sur le profilage
  • Créent des évaluations de risque individuelles

L'objectif est de prévenir les modèles de prédiction discriminatoires.

Bases de données d'images faciales non ciblées

Est interdit :

  • La collecte massive d'images faciales
  • Le scraping sur internet
  • La constitution de bases de données biométriques à grande échelle

Catégorisation biométrique par caractéristiques sensibles

Est interdite la catégorisation des personnes selon :

  • L'origine ethnique
  • La religion
  • L'orientation sexuelle
  • Les convictions politiques

De tels systèmes sont considérés comme particulièrement menaçants pour les droits fondamentaux.

Tableau récapitulatif

Pratique interditeObjectif de l'interdiction
IA manipulatriceProtection de la liberté de choix
Exploitation de personnes vulnérablesProtection des groupes vulnérables
Notation socialePrévention de la surveillance étatique
Biométrie en temps réelProtection de la vie privée
Reconnaissance des émotions (travail/éducation)Protection contre les erreurs d'interprétation
Police prédictivePrévention de la discrimination
Bases de données d'images facialesProtection contre la surveillance de masse
Catégorisation biométriqueProtection contre la discrimination

Distinction avec l'IA à haut risque

Toute application biométrique n'est pas interdite.

Exemple :

  • Authentification biométrique dans un cadre privé -- autorisée
  • Surveillance en temps réel dans les espaces publics -- interdite

Les facteurs déterminants sont :

  • Le contexte de déploiement
  • La finalité
  • Le groupe cible
  • L'intensité de l'intrusion

Le contexte est déterminant

Un système technique identique peut être autorisé ou interdit -- selon le cas d'utilisation.

Amendes selon l'art. 99

Les infractions à l'art. 5 peuvent être sanctionnées par :

  • Jusqu'à 35 millions d'euros ou
  • Jusqu'à 7 % du chiffre d'affaires annuel mondial

Il s'agit du niveau d'amende le plus élevé de la Loi sur l'IA.

Idées fausses courantes

HypothèseRéalité
« La reconnaissance des émotions est généralement interdite »Uniquement dans le cadre professionnel et éducatif
« La biométrie est fondamentalement interdite »Uniquement certaines applications
« Le secteur privé n'est pas concerné »Les entreprises doivent également respecter les interdictions

Lien avec le RGPD

De nombreuses pratiques interdites se recoupent avec :

  • Art. 9 RGPD (catégories particulières)
  • Art. 22 RGPD (décisions automatisées)
  • Principes de l'art. 5 RGPD

Un examen parallèle est nécessaire.

Mise en œuvre pratique

Étape 1 -- Inventaire IA

  • Quelles fonctions biométriques existent ?
  • Des émotions sont-elles analysées ?
  • Un profilage avec des données sensibles a-t-il lieu ?

Étape 2 -- Examen de la finalité

  • Le système est-il déployé dans des espaces publics ?
  • Concerne-t-il des groupes vulnérables ?

Étape 3 -- Documentation

  • Preuve de la licéité
  • Définition de la finalité
  • Analyse des risques

Étape 4 -- Arrêt ou adaptation

Si une interdiction s'applique :

  • Désactiver la fonction
  • Adapter l'architecture du système
  • Examiner des solutions alternatives

Besoin d'aide pour la mise en œuvre ?

Collaborez avec Creativate AI Studio pour concevoir, valider et implémenter des systèmes d'IA — techniquement solides, conformes et prêts pour la production.

Besoin de clarté juridique ?

Pour des questions juridiques spécifiques sur la Loi sur l'IA et le RGPD, un conseil juridique spécialisé en réglementation de l'IA, protection des données et structures de conformité est disponible.

Conseil juridique indépendant. Aucune information juridique automatisée. La plateforme ai-playbook.eu ne fournit pas de conseil juridique.

Prochaines étapes

  1. Vérifiez vos systèmes au regard des interdictions de l'art. 5.
  2. Documentez le contexte de déploiement et la finalité prévue.
  3. Examinez les fonctions d'analyse biométrique et émotionnelle.
  4. Évaluez les risques de discrimination.
  5. Obtenez un avis juridique en cas de doute.

Besoin d'aide pour la mise en œuvre ?

Collaborez avec Creativate AI Studio pour concevoir, valider et implémenter des systèmes d'IA — techniquement solides, conformes et prêts pour la production.

Besoin de clarté juridique ?

Pour des questions juridiques spécifiques sur la Loi sur l'IA et le RGPD, un conseil juridique spécialisé en réglementation de l'IA, protection des données et structures de conformité est disponible.

Conseil juridique indépendant. Aucune information juridique automatisée. La plateforme ai-playbook.eu ne fournit pas de conseil juridique.

Articles connexes