← Product Depth Product Depth

AI Act : où se situe votre produit ?

Découvrez en quelques questions quels aspects du règlement européen sur l'IA sont susceptibles de concerner votre produit.

Question 1 sur 5

Votre produit est-il utilisé ou vendu dans l'Union européenne ?

Question 2 sur 5

Votre produit fait-il l'une de ces choses ?

Certaines utilisations de l'IA sont interdites dans l'UE depuis février 2025 :

• Noter ou classer des citoyens selon leur comportement social
• Manipuler des personnes à leur insu pour influencer leurs choix
• Identifier des personnes par reconnaissance faciale en temps réel dans l'espace public
• Classer des gens selon leur origine, religion ou orientation sexuelle à partir de données biométriques
Question 3 sur 5

Quel est le domaine principal de votre produit ?

Question 4 sur 5

Concrètement, que fait votre produit dans ce domaine ?

Question 5 sur 5

Votre produit fait-il l'une de ces choses ?

Plusieurs réponses possibles.

Non concerné directement

L'AI Act ne s'applique pas directement à votre produit

Le règlement européen sur l'IA cible les produits utilisés ou commercialisés dans l'Union européenne. Si votre produit n'est pas dans ce périmètre, vous n'avez pas d'obligations immédiates.

Cela dit, l'AI Act inspire déjà d'autres régulations dans le monde (Canada, Brésil, Royaume-Uni). C'est ce qu'on appelle l'effet Bruxelles : les standards européens deviennent souvent la norme mondiale. Une veille reste recommandée.

📅 Pas d'échéance directe
Pratique potentiellement interdite
⚠️ En vigueur depuis février 2025

Votre produit pourrait relever d'une pratique interdite par l'AI Act

Les pratiques que vous avez identifiées font partie des utilisations de l'IA interdites dans l'UE depuis le 2 février 2025. Ce n'est pas une obligation future : c'est déjà en vigueur.

Les sanctions peuvent atteindre 35 millions d'euros ou 7% du chiffre d'affaires mondial.

Actions recommandées

⚖️ Consulter immédiatement un juriste spécialisé en droit du numérique
🔍 Auditer les fonctionnalités concernées de votre produit
🛑 Évaluer si une modification du produit peut résoudre le problème
Probablement haut risque
📅 Échéance : août 2026

Votre produit est probablement classé « haut risque » par l'AI Act

Il opère dans un domaine sensible listé à l'Annexe III du règlement et prend ou influence des décisions qui affectent directement des personnes. C'est la combinaison qui déclenche les obligations les plus lourdes.

Note : la Commission européenne a proposé de repousser cette échéance. Le calendrier pourrait évoluer.

Ce que ça implique concrètement

📋 Mettre en place un système de gestion des risques documenté
📊 Garantir la qualité et la traçabilité des données utilisées pour entraîner le modèle
📄 Produire une documentation technique détaillée
👁️ Permettre un contrôle humain effectif sur les décisions du système
🔒 Assurer la robustesse, la précision et la cybersécurité du système
Se soumettre à une évaluation de conformité (auto ou par un tiers selon le cas)
Potentiellement haut risque
📅 Échéance probable : août 2026

Votre produit pourrait être classé « haut risque », mais une dérogation est possible

Votre produit opère dans un domaine sensible, mais l'humain garde le dernier mot sur les décisions. L'article 6.3 de l'AI Act prévoit une dérogation pour les systèmes qui ne posent pas de risque significatif pour la santé, la sécurité ou les droits fondamentaux.

Pour savoir si cette dérogation s'applique à votre cas, il faut une analyse juridique détaillée de votre produit.

Actions recommandées

⚖️ Consulter un juriste pour évaluer si la dérogation de l'article 6.3 s'applique
📋 Documenter le rôle de l'humain dans la boucle de décision
🔍 Préparer une analyse d'impact sur les droits fondamentaux
Obligations de transparence
📅 Échéance : août 2026

Votre produit a des obligations de transparence envers ses utilisateurs

Même si votre produit n'est pas classé haut risque, l'AI Act impose des règles de transparence quand une IA interagit avec des personnes ou produit du contenu.

Ce que ça implique concrètement

💬 Informer les utilisateurs qu'ils interagissent avec une IA (pas un humain)
🏷️ Marquer les contenus générés par IA comme tels (texte, image, audio, vidéo)
🔍 Si détection d'émotions : informer les personnes concernées et obtenir leur consentement
Risque minimal

Votre produit n'a pas d'obligations spécifiques sous l'AI Act

La grande majorité des systèmes IA tombent dans cette catégorie. L'AI Act n'impose aucune obligation spécifique, mais encourage l'adoption volontaire de codes de conduite pour les bonnes pratiques en matière d'IA.

C'est une bonne nouvelle, mais ça ne veut pas dire qu'il n'y a rien à faire. D'autres réglementations peuvent s'appliquer (RGPD, directives sectorielles), et les standards évoluent.

📅 Pas d'échéance spécifique

Pour comprendre les enjeux

Vous n'êtes pas directement concerné, mais ces sujets méritent d'être compris si vous travaillez sur un produit qui utilise de l'IA.

AI Act : le coût produit de la transparence Lire → AI Act : concevoir un produit que l'humain peut vraiment contrôler Lire → AI Act : documenter les décisions, pas les fonctionnalités Lire →