Vue d'ensemble
La Loi sur l'IA de l'UE repose sur une approche basée sur les risques. Chaque système d'IA doit être attribué à une catégorie de risque :
- Pratiques d'IA interdites
- Systèmes à haut risque
- Systèmes soumis à des obligations de transparence (risque limité)
- Risque minimal
Ce modèle sert d'aide de travail structurée pour la classification d'un système d'IA spécifique.
Note importante
La classification des risques n'est pas une formalité unique. Elle doit être documentée, régulièrement réexaminée et mise à jour en cas de modification du système.
Modèle de classification des risques
1. Description du système
1.1 Nom du système d'IA
- Désignation du système :
- Version :
- Fournisseur :
- Déployeur :
1.2 Destination
- À quelle finalité concrète le système sert-il ?
- Est-il déployé dans un domaine sensible (RH, finance, santé, éducation) ?
- Influence-t-il des décisions concernant des personnes ?
1.3 Description fonctionnelle
- Type d'IA (par exemple classification, scoring, IA générative)
- Degré d'automatisation (soutien / décision)
- Intégré dans un produit ou autonome ?
2. Étape 1 : Pratiques interdites (art. 5)
Vérifiez si le système implique l'une des pratiques suivantes :
| Question de vérification | Oui / Non |
|---|---|
| IA manipulatrice qui influence inconsciemment le comportement ? | |
| Exploitation de personnes vulnérables (par exemple enfants) ? | |
| Scoring social par des autorités publiques ? | |
| Identification biométrique à distance en temps réel dans les espaces publics ? | |
| Reconnaissance des émotions sur le lieu de travail ou dans les établissements d'enseignement ? | |
| Catégorisation biométrique de caractéristiques sensibles ? |
Si OUI
Si au moins une question reçoit une réponse « Oui », le système est fondamentalement interdit.
3. Étape 2 : Systèmes à haut risque (annexe III)
Vérifiez si le système relève de l'un des domaines suivants :
| Domaine | Pertinent (Oui/Non) |
|---|---|
| Identification biométrique | |
| Infrastructure critique | |
| Éducation et formation professionnelle | |
| Emploi et RH | |
| Accès aux services essentiels (par exemple crédit) | |
| Application de la loi | |
| Migration et contrôle aux frontières | |
| Justice et processus démocratiques |
Si « Oui », examinez l'art. 6(3) (test d'exception) :
- Le système n'a-t-il que des impacts mineurs ?
- N'influence-t-il aucune décision significative ?
Si aucune exception ne s'applique, le système est à haut risque.
Obligation de documentation
La justification d'une classification à haut risque ou non doit être documentée.
4. Étape 3 : Composant de sécurité
Le système d'IA est-il :
- Partie intégrante d'un produit avec marquage CE ?
- Pertinent pour la sécurité d'un produit réglementé ?
Si oui, une classification à haut risque peut également s'appliquer indépendamment de l'annexe III.
5. Étape 4 : GPAI (IA à usage général)
S'agit-il :
- D'un modèle de fondation à usage général ?
- D'un modèle présentant un risque systémique ?
Si oui, des obligations supplémentaires au titre des art. 51-56 s'appliquent.
6. Étape 5 : Obligations de transparence (risque limité)
Vérifiez :
| Question de vérification | Oui/Non |
|---|---|
| Le système interagit-il directement avec des humains ? | |
| Génère-t-il du contenu synthétique (texte, image, audio) ? | |
| La technologie deepfake est-elle utilisée ? |
Si « Oui », les obligations de transparence et d'étiquetage sont pertinentes.
7. Résultat de la classification des risques
| Catégorie | Résultat |
|---|---|
| Interdit | |
| Haut risque | |
| Risque limité | |
| Risque minimal |
Justification :
8. Mesures de suivi par niveau de risque
Systèmes interdits
- Cesser le développement ou le déploiement
- Obtenir un avis juridique
Systèmes à haut risque
- Implémenter un système de gestion des risques
- Documenter la gouvernance des données
- Créer la documentation technique
- Effectuer l'évaluation de conformité
- Examiner le marquage CE
- Établir la surveillance post-commercialisation
Risque limité
- Remplir les obligations de transparence
- Étiqueter les interactions IA
- Intégrer les avertissements deepfake
Risque minimal
- Examen général de gouvernance
- Documentation à des fins de responsabilité
9. Section documentation
- Date de classification :
- Personne responsable :
- Examen interne par :
- Dernière mise à jour :
Lien avec le RGPD
Indépendamment du niveau de risque de la Loi sur l'IA, le RGPD reste applicable en parallèle.
Besoin d'aide pour la mise en œuvre ?
Collaborez avec Creativate AI Studio pour concevoir, valider et implémenter des systèmes d'IA — techniquement solides, conformes et prêts pour la production.
Besoin de clarté juridique ?
Pour des questions juridiques spécifiques sur la Loi sur l'IA et le RGPD, un conseil juridique spécialisé en réglementation de l'IA, protection des données et structures de conformité est disponible.
Conseil juridique indépendant. Aucune information juridique automatisée. La plateforme ai-playbook.eu ne fournit pas de conseil juridique.
Vous ne savez pas où vous en êtes ?
Si votre cas d'utilisation de l'IA ne s'inscrit pas clairement dans une catégorie, envoyez-nous une brève description — nous vous orienterons dans la bonne direction.
Prochaines étapes
- Remplissez ce modèle pour chaque système d'IA.
- Documentez la justification de la classification de manière traçable.
- Pour les systèmes à haut risque, examinez les exigences de conformité précocement.
- Intégrez la classification des risques dans votre gouvernance IA.
- Validez votre classification avec des experts qualifiés si nécessaire.
Besoin d'aide pour la mise en œuvre ?
Collaborez avec Creativate AI Studio pour concevoir, valider et implémenter des systèmes d'IA — techniquement solides, conformes et prêts pour la production.
Besoin de clarté juridique ?
Pour des questions juridiques spécifiques sur la Loi sur l'IA et le RGPD, un conseil juridique spécialisé en réglementation de l'IA, protection des données et structures de conformité est disponible.
Conseil juridique indépendant. Aucune information juridique automatisée. La plateforme ai-playbook.eu ne fournit pas de conseil juridique.