Classification des risques Loi sur l'IA – Modèle et arbre de décision

Modèle étape par étape pour classifier un système d'IA selon la Loi sur l'IA – incluant les pratiques interdites, l'évaluation du haut risque (annexe III), le composant de sécurité et les exigences de documentation.

11 février 20265 min de lecture
Loi sur l'IAClassification des risquesHaut risquePratiques interditesModèleConformité

Vue d'ensemble

La Loi sur l'IA de l'UE repose sur une approche basée sur les risques. Chaque système d'IA doit être attribué à une catégorie de risque :

  1. Pratiques d'IA interdites
  2. Systèmes à haut risque
  3. Systèmes soumis à des obligations de transparence (risque limité)
  4. Risque minimal

Ce modèle sert d'aide de travail structurée pour la classification d'un système d'IA spécifique.

Note importante

La classification des risques n'est pas une formalité unique. Elle doit être documentée, régulièrement réexaminée et mise à jour en cas de modification du système.

Modèle de classification des risques

1. Description du système

1.1 Nom du système d'IA

  • Désignation du système :
  • Version :
  • Fournisseur :
  • Déployeur :

1.2 Destination

  • À quelle finalité concrète le système sert-il ?
  • Est-il déployé dans un domaine sensible (RH, finance, santé, éducation) ?
  • Influence-t-il des décisions concernant des personnes ?

1.3 Description fonctionnelle

  • Type d'IA (par exemple classification, scoring, IA générative)
  • Degré d'automatisation (soutien / décision)
  • Intégré dans un produit ou autonome ?

2. Étape 1 : Pratiques interdites (art. 5)

Vérifiez si le système implique l'une des pratiques suivantes :

Question de vérificationOui / Non
IA manipulatrice qui influence inconsciemment le comportement ?
Exploitation de personnes vulnérables (par exemple enfants) ?
Scoring social par des autorités publiques ?
Identification biométrique à distance en temps réel dans les espaces publics ?
Reconnaissance des émotions sur le lieu de travail ou dans les établissements d'enseignement ?
Catégorisation biométrique de caractéristiques sensibles ?

Si OUI

Si au moins une question reçoit une réponse « Oui », le système est fondamentalement interdit.

3. Étape 2 : Systèmes à haut risque (annexe III)

Vérifiez si le système relève de l'un des domaines suivants :

DomainePertinent (Oui/Non)
Identification biométrique
Infrastructure critique
Éducation et formation professionnelle
Emploi et RH
Accès aux services essentiels (par exemple crédit)
Application de la loi
Migration et contrôle aux frontières
Justice et processus démocratiques

Si « Oui », examinez l'art. 6(3) (test d'exception) :

  • Le système n'a-t-il que des impacts mineurs ?
  • N'influence-t-il aucune décision significative ?

Si aucune exception ne s'applique, le système est à haut risque.

Obligation de documentation

La justification d'une classification à haut risque ou non doit être documentée.

4. Étape 3 : Composant de sécurité

Le système d'IA est-il :

  • Partie intégrante d'un produit avec marquage CE ?
  • Pertinent pour la sécurité d'un produit réglementé ?

Si oui, une classification à haut risque peut également s'appliquer indépendamment de l'annexe III.

5. Étape 4 : GPAI (IA à usage général)

S'agit-il :

  • D'un modèle de fondation à usage général ?
  • D'un modèle présentant un risque systémique ?

Si oui, des obligations supplémentaires au titre des art. 51-56 s'appliquent.

6. Étape 5 : Obligations de transparence (risque limité)

Vérifiez :

Question de vérificationOui/Non
Le système interagit-il directement avec des humains ?
Génère-t-il du contenu synthétique (texte, image, audio) ?
La technologie deepfake est-elle utilisée ?

Si « Oui », les obligations de transparence et d'étiquetage sont pertinentes.

7. Résultat de la classification des risques

CatégorieRésultat
Interdit
Haut risque
Risque limité
Risque minimal

Justification :

8. Mesures de suivi par niveau de risque

Systèmes interdits

  • Cesser le développement ou le déploiement
  • Obtenir un avis juridique

Systèmes à haut risque

  • Implémenter un système de gestion des risques
  • Documenter la gouvernance des données
  • Créer la documentation technique
  • Effectuer l'évaluation de conformité
  • Examiner le marquage CE
  • Établir la surveillance post-commercialisation

Risque limité

  • Remplir les obligations de transparence
  • Étiqueter les interactions IA
  • Intégrer les avertissements deepfake

Risque minimal

  • Examen général de gouvernance
  • Documentation à des fins de responsabilité

9. Section documentation

  • Date de classification :
  • Personne responsable :
  • Examen interne par :
  • Dernière mise à jour :

Lien avec le RGPD

Indépendamment du niveau de risque de la Loi sur l'IA, le RGPD reste applicable en parallèle.

Besoin d'aide pour la mise en œuvre ?

Collaborez avec Creativate AI Studio pour concevoir, valider et implémenter des systèmes d'IA — techniquement solides, conformes et prêts pour la production.

Besoin de clarté juridique ?

Pour des questions juridiques spécifiques sur la Loi sur l'IA et le RGPD, un conseil juridique spécialisé en réglementation de l'IA, protection des données et structures de conformité est disponible.

Conseil juridique indépendant. Aucune information juridique automatisée. La plateforme ai-playbook.eu ne fournit pas de conseil juridique.

Vous ne savez pas où vous en êtes ?

Si votre cas d'utilisation de l'IA ne s'inscrit pas clairement dans une catégorie, envoyez-nous une brève description — nous vous orienterons dans la bonne direction.

Prochaines étapes

  1. Remplissez ce modèle pour chaque système d'IA.
  2. Documentez la justification de la classification de manière traçable.
  3. Pour les systèmes à haut risque, examinez les exigences de conformité précocement.
  4. Intégrez la classification des risques dans votre gouvernance IA.
  5. Validez votre classification avec des experts qualifiés si nécessaire.

Besoin d'aide pour la mise en œuvre ?

Collaborez avec Creativate AI Studio pour concevoir, valider et implémenter des systèmes d'IA — techniquement solides, conformes et prêts pour la production.

Besoin de clarté juridique ?

Pour des questions juridiques spécifiques sur la Loi sur l'IA et le RGPD, un conseil juridique spécialisé en réglementation de l'IA, protection des données et structures de conformité est disponible.

Conseil juridique indépendant. Aucune information juridique automatisée. La plateforme ai-playbook.eu ne fournit pas de conseil juridique.

Articles connexes