Aperçu
La Loi sur l'IA de l'UE suit une approche basée sur les risques. Alors que de nombreux systèmes d'IA sont réglementés ou classés comme à haut risque, il existe une catégorie restreinte et clairement définie de pratiques d'IA totalement interdites.
Ces pratiques sont considérées comme incompatibles avec les droits fondamentaux de l'Union européenne. Elles ne peuvent pas être autorisées -- même avec des mesures de protection supplémentaires.
Depuis février 2025, ces interdictions sont directement applicables.
Cet article explique :
- Toutes les pratiques interdites selon l'art. 5
- Le contexte politique et des droits fondamentaux
- Les exceptions (p. ex. application de la loi)
- La distinction avec les systèmes autorisés
- Les risques de sanctions
Principe fondamental : Protection des droits fondamentaux
L'art. 5 interdit les systèmes d'IA qui :
- Manipulent les personnes
- Discriminent systématiquement
- Portent massivement atteinte aux droits fondamentaux
- Conduisent à une surveillance sociétale
Interdictions absolues
Contrairement à l'IA à haut risque, ces systèmes ne peuvent pas être réglementés -- ils sont totalement interdits.
Systèmes d'IA manipulateurs
Sont interdits les systèmes qui :
- Utilisent des techniques subliminales
- Influencent substantiellement le comportement des personnes
- Sapent la liberté de choix
- Causent ou sont susceptibles de causer un préjudice
Exemple : Une IA qui exploite les faiblesses psychologiques pour manipuler les décisions d'achat.
Exploitation de personnes vulnérables
Sont interdits les systèmes qui ciblent et manipulent ou exploitent :
- Les enfants
- Les personnes âgées
- Les personnes en situation de handicap
Exemple : Des mécanismes de jeu basés sur l'IA qui poussent délibérément les mineurs vers des achats intégrés.
Notation sociale par les autorités publiques
Est interdit :
- L'évaluation des citoyens par les autorités publiques
- Basée sur le comportement social ou les traits de personnalité
- Avec des conséquences sociétales négatives
L'objectif est de prévenir les systèmes rappelant des modèles de surveillance autoritaires.
Identification biométrique à distance en temps réel dans les espaces publics
Est généralement interdite :
- La reconnaissance faciale en temps réel dans les espaces publics
Des exceptions n'existent que sous des conditions strictes pour :
- La lutte contre le terrorisme
- La recherche de criminels graves
- La prévention de menaces aiguës
Ces exceptions sont soumises à des procédures d'autorisation strictes.
Reconnaissance des émotions sur le lieu de travail ou dans les établissements d'enseignement
Est interdit l'usage de l'IA pour :
- L'analyse des états émotionnels
- L'évaluation des employés
- L'analyse des performances des élèves ou étudiants
Justification : Forte susceptibilité aux erreurs et risques de discrimination significatifs.
Police prédictive basée sur les données à caractère personnel
Sont interdits les systèmes qui :
- Prédisent des infractions
- Reposent uniquement sur le profilage
- Créent des évaluations de risque individuelles
L'objectif est de prévenir les modèles de prédiction discriminatoires.
Bases de données d'images faciales non ciblées
Est interdit :
- La collecte massive d'images faciales
- Le scraping sur internet
- La constitution de bases de données biométriques à grande échelle
Catégorisation biométrique par caractéristiques sensibles
Est interdite la catégorisation des personnes selon :
- L'origine ethnique
- La religion
- L'orientation sexuelle
- Les convictions politiques
De tels systèmes sont considérés comme particulièrement menaçants pour les droits fondamentaux.
Tableau récapitulatif
| Pratique interdite | Objectif de l'interdiction |
|---|---|
| IA manipulatrice | Protection de la liberté de choix |
| Exploitation de personnes vulnérables | Protection des groupes vulnérables |
| Notation sociale | Prévention de la surveillance étatique |
| Biométrie en temps réel | Protection de la vie privée |
| Reconnaissance des émotions (travail/éducation) | Protection contre les erreurs d'interprétation |
| Police prédictive | Prévention de la discrimination |
| Bases de données d'images faciales | Protection contre la surveillance de masse |
| Catégorisation biométrique | Protection contre la discrimination |
Distinction avec l'IA à haut risque
Toute application biométrique n'est pas interdite.
Exemple :
- Authentification biométrique dans un cadre privé -- autorisée
- Surveillance en temps réel dans les espaces publics -- interdite
Les facteurs déterminants sont :
- Le contexte de déploiement
- La finalité
- Le groupe cible
- L'intensité de l'intrusion
Le contexte est déterminant
Un système technique identique peut être autorisé ou interdit -- selon le cas d'utilisation.
Amendes selon l'art. 99
Les infractions à l'art. 5 peuvent être sanctionnées par :
- Jusqu'à 35 millions d'euros ou
- Jusqu'à 7 % du chiffre d'affaires annuel mondial
Il s'agit du niveau d'amende le plus élevé de la Loi sur l'IA.
Idées fausses courantes
| Hypothèse | Réalité |
|---|---|
| « La reconnaissance des émotions est généralement interdite » | Uniquement dans le cadre professionnel et éducatif |
| « La biométrie est fondamentalement interdite » | Uniquement certaines applications |
| « Le secteur privé n'est pas concerné » | Les entreprises doivent également respecter les interdictions |
Lien avec le RGPD
De nombreuses pratiques interdites se recoupent avec :
- Art. 9 RGPD (catégories particulières)
- Art. 22 RGPD (décisions automatisées)
- Principes de l'art. 5 RGPD
Un examen parallèle est nécessaire.
Mise en œuvre pratique
Étape 1 -- Inventaire IA
- Quelles fonctions biométriques existent ?
- Des émotions sont-elles analysées ?
- Un profilage avec des données sensibles a-t-il lieu ?
Étape 2 -- Examen de la finalité
- Le système est-il déployé dans des espaces publics ?
- Concerne-t-il des groupes vulnérables ?
Étape 3 -- Documentation
- Preuve de la licéité
- Définition de la finalité
- Analyse des risques
Étape 4 -- Arrêt ou adaptation
Si une interdiction s'applique :
- Désactiver la fonction
- Adapter l'architecture du système
- Examiner des solutions alternatives
Besoin d'aide pour la mise en œuvre ?
Collaborez avec Creativate AI Studio pour concevoir, valider et implémenter des systèmes d'IA — techniquement solides, conformes et prêts pour la production.
Besoin de clarté juridique ?
Pour des questions juridiques spécifiques sur la Loi sur l'IA et le RGPD, un conseil juridique spécialisé en réglementation de l'IA, protection des données et structures de conformité est disponible.
Conseil juridique indépendant. Aucune information juridique automatisée. La plateforme ai-playbook.eu ne fournit pas de conseil juridique.
Prochaines étapes
- Vérifiez vos systèmes au regard des interdictions de l'art. 5.
- Documentez le contexte de déploiement et la finalité prévue.
- Examinez les fonctions d'analyse biométrique et émotionnelle.
- Évaluez les risques de discrimination.
- Obtenez un avis juridique en cas de doute.
Besoin d'aide pour la mise en œuvre ?
Collaborez avec Creativate AI Studio pour concevoir, valider et implémenter des systèmes d'IA — techniquement solides, conformes et prêts pour la production.
Besoin de clarté juridique ?
Pour des questions juridiques spécifiques sur la Loi sur l'IA et le RGPD, un conseil juridique spécialisé en réglementation de l'IA, protection des données et structures de conformité est disponible.
Conseil juridique indépendant. Aucune information juridique automatisée. La plateforme ai-playbook.eu ne fournit pas de conseil juridique.