Classes de risque de la Loi sur l'IA de l'UE

Les quatre classes de risque de la Loi sur l'IA de l'UE expliquées – du risque minimal aux pratiques d'IA interdites.

1 juillet 20253 min de lecture
Loi sur l'IAClasses de risqueConformitéRéglementation

Aperçu

Le Règlement sur l'IA de l'UE (Règlement (UE) 2024/1689) classe les systèmes d'IA en quatre classes de risque. Plus le risque est élevé, plus les exigences sont strictes. Ce système basé sur les risques est le pilier central de la réglementation.

Les quatre classes de risque

1. Risque inacceptable (Interdit)

Les systèmes d'IA considérés comme une menace pour les personnes sont totalement interdits :

  • Notation sociale par les autorités publiques
  • Identification biométrique à distance en temps réel dans les espaces publics (avec exceptions)
  • Manipulation par des techniques subliminales
  • Exploitation des vulnérabilités de groupes de personnes spécifiques
  • Reconnaissance des émotions sur le lieu de travail et dans les établissements d'enseignement

Pratiques interdites

Les systèmes d'IA interdits ne peuvent être ni développés, ni déployés, ni mis sur le marché. Les infractions peuvent être sanctionnées par des amendes pouvant atteindre 35 millions d'euros ou 7 % du chiffre d'affaires annuel mondial.

2. Haut risque

Systèmes d'IA ayant un impact significatif sur les droits fondamentaux ou la sécurité :

  • Identification biométrique et catégorisation
  • Infrastructures critiques (énergie, transports, eau)
  • Éducation et formation professionnelle (accès, évaluation)
  • Emploi (recrutement, évaluation, licenciement)
  • Services essentiels (scoring de crédit, assurance)
  • Application de la loi et contrôle aux frontières
  • Justice et processus démocratiques

Exigences pour l'IA à haut risque :

  1. Système de gestion des risques
  2. Gouvernance des données et qualité des données
  3. Documentation technique
  4. Journalisation (logging)
  5. Transparence et obligations d'information
  6. Supervision humaine
  7. Exactitude, robustesse, cybersécurité

Vous déployez un système d'IA à haut risque ?

Une expertise spécialisée est cruciale pour le développement et l'exploitation des systèmes d'IA à haut risque. Collaborez avec Creativate AI Studio pour satisfaire aux exigences et construire des architectures robustes.

3. Risque limité (Obligations de transparence)

Les systèmes d'IA qui interagissent avec des personnes doivent satisfaire aux exigences de transparence :

  • Chatbots : Les utilisateurs doivent savoir qu'ils interagissent avec une IA
  • Deepfakes : Doivent être étiquetés comme générés par l'IA
  • Reconnaissance des émotions : Les personnes concernées doivent être informées
  • Contenus générés par l'IA : Doivent être étiquetés comme tels

4. Risque minimal

La plupart des systèmes d'IA entrent dans cette catégorie et ne sont soumis à aucune obligation spécifique :

  • Filtres anti-spam
  • IA dans les jeux vidéo
  • Systèmes de recommandation (avec restrictions)
  • Applications industrielles sans pertinence pour la sécurité

Calendrier

ÉtapeDate
Entrée en vigueurAoût 2024
Interdiction de l'IA inacceptableFévrier 2025
Règles GPAI applicablesAoût 2025
IA à haut risque (Annexe III)Août 2026
Application complèteAoût 2027

IA à usage général (GPAI)

Des règles distinctes s'appliquent aux modèles d'IA à usage général (comme GPT, Claude, Gemini). Les fournisseurs doivent fournir une documentation technique et respecter le droit d'auteur. Les modèles présentant un risque systémique sont soumis à des obligations supplémentaires.

Prochaines étapes

  1. Réaliser un inventaire de tous les systèmes d'IA déployés
  2. Effectuer une classification des risques pour chaque système
  3. Mener une analyse des écarts entre l'état actuel et les exigences
  4. Créer et prioriser un plan d'action

Besoin d'aide pour la mise en œuvre ?

Collaborez avec Creativate AI Studio pour classifier vos systèmes d'IA, réaliser une analyse des écarts et créer un plan d'action concret — techniquement solide et conforme à la réglementation.

Besoin de clarté juridique ?

Pour des questions juridiques spécifiques sur la Loi sur l'IA et le RGPD, un conseil juridique spécialisé en réglementation de l'IA, protection des données et structures de conformité est disponible.

Conseil juridique indépendant. Aucune information juridique automatisée. La plateforme ai-playbook.eu ne fournit pas de conseil juridique.

Vous ne savez pas où vous en êtes ?

Si votre cas d'utilisation de l'IA ne s'inscrit pas clairement dans une catégorie, envoyez-nous une brève description — nous vous orienterons dans la bonne direction.

Articles connexes