Découvrez en quelques questions quels aspects du règlement européen sur l'IA sont susceptibles de concerner votre produit.
Question 1 sur 5
Votre produit est-il utilisé ou vendu dans l'Union européenne ?
Question 2 sur 5
Votre produit fait-il l'une de ces choses ?
Certaines utilisations de l'IA sont interdites dans l'UE depuis février 2025 :
• Noter ou classer des citoyens selon leur comportement social
• Manipuler des personnes à leur insu pour influencer leurs choix
• Identifier des personnes par reconnaissance faciale en temps réel dans l'espace public
• Classer des gens selon leur origine, religion ou orientation sexuelle à partir de données biométriques
Question 3 sur 5
Quel est le domaine principal de votre produit ?
Question 4 sur 5
Concrètement, que fait votre produit dans ce domaine ?
Question 5 sur 5
Votre produit fait-il l'une de ces choses ?
Plusieurs réponses possibles.
Non concerné directement
L'AI Act ne s'applique pas directement à votre produit
Le règlement européen sur l'IA cible les produits utilisés ou commercialisés dans l'Union européenne. Si votre produit n'est pas dans ce périmètre, vous n'avez pas d'obligations immédiates.
Cela dit, l'AI Act inspire déjà d'autres régulations dans le monde (Canada, Brésil, Royaume-Uni). C'est ce qu'on appelle l'effet Bruxelles : les standards européens deviennent souvent la norme mondiale. Une veille reste recommandée.
Votre produit pourrait relever d'une pratique interdite par l'AI Act
Les pratiques que vous avez identifiées font partie des utilisations de l'IA interdites dans l'UE depuis le 2 février 2025. Ce n'est pas une obligation future : c'est déjà en vigueur.
Les sanctions peuvent atteindre 35 millions d'euros ou 7% du chiffre d'affaires mondial.
Actions recommandées
⚖️ Consulter immédiatement un juriste spécialisé en droit du numérique
🔍 Auditer les fonctionnalités concernées de votre produit
🛑 Évaluer si une modification du produit peut résoudre le problème
Votre produit est probablement classé « haut risque » par l'AI Act
Il opère dans un domaine sensible listé à l'Annexe III du règlement et prend ou influence des décisions qui affectent directement des personnes. C'est la combinaison qui déclenche les obligations les plus lourdes.
Note : la Commission européenne a proposé de repousser cette échéance. Le calendrier pourrait évoluer.
Ce que ça implique concrètement
📋 Mettre en place un système de gestion des risques documenté
📊 Garantir la qualité et la traçabilité des données utilisées pour entraîner le modèle
📄 Produire une documentation technique détaillée
👁️ Permettre un contrôle humain effectif sur les décisions du système
🔒 Assurer la robustesse, la précision et la cybersécurité du système
✅ Se soumettre à une évaluation de conformité (auto ou par un tiers selon le cas)
Votre produit pourrait être classé « haut risque », mais une dérogation est possible
Votre produit opère dans un domaine sensible, mais l'humain garde le dernier mot sur les décisions. L'article 6.3 de l'AI Act prévoit une dérogation pour les systèmes qui ne posent pas de risque significatif pour la santé, la sécurité ou les droits fondamentaux.
Pour savoir si cette dérogation s'applique à votre cas, il faut une analyse juridique détaillée de votre produit.
Actions recommandées
⚖️ Consulter un juriste pour évaluer si la dérogation de l'article 6.3 s'applique
📋 Documenter le rôle de l'humain dans la boucle de décision
🔍 Préparer une analyse d'impact sur les droits fondamentaux
Votre produit a des obligations de transparence envers ses utilisateurs
Même si votre produit n'est pas classé haut risque, l'AI Act impose des règles de transparence quand une IA interagit avec des personnes ou produit du contenu.
Ce que ça implique concrètement
💬 Informer les utilisateurs qu'ils interagissent avec une IA (pas un humain)
🏷️ Marquer les contenus générés par IA comme tels (texte, image, audio, vidéo)
🔍 Si détection d'émotions : informer les personnes concernées et obtenir leur consentement
Votre produit n'a pas d'obligations spécifiques sous l'AI Act
La grande majorité des systèmes IA tombent dans cette catégorie. L'AI Act n'impose aucune obligation spécifique, mais encourage l'adoption volontaire de codes de conduite pour les bonnes pratiques en matière d'IA.
C'est une bonne nouvelle, mais ça ne veut pas dire qu'il n'y a rien à faire. D'autres réglementations peuvent s'appliquer (RGPD, directives sectorielles), et les standards évoluent.
📅 Pas d'échéance spécifique
Pour comprendre les enjeux
Vous n'êtes pas directement concerné, mais ces sujets méritent d'être compris si vous travaillez sur un produit qui utilise de l'IA.
Ceci est un outil d'orientation, pas un avis juridique. Ce simulateur est conçu pour vous donner une première indication sur la manière dont l'AI Act pourrait concerner votre produit. Il simplifie nécessairement un règlement complexe. Pour une analyse précise de votre situation, consultez un juriste spécialisé. Les dates et obligations peuvent évoluer en fonction des actes d'exécution de la Commission européenne.