Aller au contenu

Contenu généré par IA: Les réponses sont générées par une IA, assemblées automatiquement et peuvent contenir des erreurs. Conformi est un outil de recherche et ne remplace pas un conseil juridique ou un examen juridique au cas par cas. Toutes les réponses doivent être vérifiées à l’aide des sources originales liées.

🤖Intelligence artificielle

Règlement sur l'intelligence artificielle (AI Act) — Règles harmonisées pour l'IA dans l'UE

Analyse du 17 avril 20263 sourcesVersion consolidée du 12.07.2024EUR-Lex Original

Quel projet d'IA devez-vous mettre en conformité en priorité avant que les sanctions du AI Act ne s'appliquent pleinement ?

Les fournisseurs de systèmes d'IA à haut risque dans l'UE ont jusqu'au 2 août 2026 pour se conformer — sous peine d'amendes pouvant atteindre 35 millions EUR ou 7 % du chiffre d'affaires mondial, et c'est au responsable conformité d'agir en premier.

Réponse courte

Le règlement (UE) 2024/1689 interdit certaines pratiques d'IA — manipulation subliminale, notation sociale, identification biométrique à distance en temps réel non autorisée — depuis le 2 février 2025 [Art. 5, Art. 113 al. a]. Les obligations de transparence et de droits d'auteur pour les modèles d'IA à usage général (GPAI) s'appliquent depuis le 2 août 2025 [Art. 113 al. b]. Les exigences complètes pour les systèmes d'IA à haut risque — gestion des risques, qualité des données, surveillance humaine — entreront en vigueur le 2 août 2026 [Art. 6, Art. 8-15]. Tout fournisseur doit soumettre ces systèmes à une évaluation de conformité et les enregistrer dans la base de données de l'UE [Art. 43, Art. 49].

Concernés

Le règlement s'applique aux fournisseurs, déployeurs, importateurs et distributeurs de systèmes d'IA mis sur le marché ou en service dans l'UE, quel que soit leur lieu d'établissement, dès lors que les sorties du système sont utilisées dans l'Union [Art. 2 par. 1]. Les fabricants de produits intégrant un système d'IA sous leur propre marque sont également visés [Art. 2 par. 1 al. e]. Pour les PME et jeunes pousses, les amendes sont plafonnées au montant le plus faible entre le pourcentage et le montant forfaitaire [Art. 99 par. 6], mais aucune exemption substantielle ne s'applique.

Échéance

Prochaine échéance : 2 août 2026 — application intégrale des exigences pour les systèmes d'IA à haut risque visés à l'annexe III [Art. 113]. Déjà en vigueur : interdictions (depuis le 2 février 2025), obligations GPAI (depuis le 2 août 2025). Échéance ultérieure : 2 août 2027 — obligations pour les systèmes d'IA à haut risque qui sont des composants de sécurité de produits au sens de l'art. 6 par. 1 [Art. 113 al. c].

Risque

Violation des pratiques interdites [Art. 5] : amende jusqu'à 35 millions EUR ou 7 % du chiffre d'affaires annuel mondial [Art. 99 par. 3]. Non-conformité aux exigences des systèmes à haut risque : jusqu'à 15 millions EUR ou 3 % du chiffre d'affaires [Art. 99 par. 4]. Fourniture d'informations inexactes aux autorités : jusqu'à 7,5 millions EUR ou 1 % du chiffre d'affaires [Art. 99 par. 5]. Pour les PME, c'est le montant le plus faible qui s'applique [Art. 99 par. 6].

Preuves

Statut juridique

  • En vigueur
  • au 2026-04-17
  • Version consolidée du 12.07.2024

Sources primaires

À faire maintenant

Juridique / DPO

  • Dresser un inventaire de tous les systèmes d'IA en exploitation et vérifier qu'aucune pratique interdite au sens de l'art. 5 n'est mise en oeuvre — ces interdictions sont applicables depuis le 2 février 2025 [Art. 5, Art. 113 al. a].
  • Qualifier chaque système d'IA selon les catégories du règlement — non risqué, à haut risque (annexe III), ou soumis aux obligations de transparence — et documenter cette qualification [Art. 6, Art. 50].
  • Réviser les contrats avec les fournisseurs de composants d'IA et de modèles GPAI pour intégrer les nouvelles obligations d'information, de coopération et de documentation technique [Art. 25 par. 4, Art. 53].

Conformité

  • Mettre en place un système de gestion des risques continu couvrant l'ensemble du cycle de vie de chaque système d'IA à haut risque, de la conception à la mise hors service [Art. 9].
  • Implémenter un système de gestion de la qualité documentant la conception, le management des données, la surveillance après commercialisation et la conformité au règlement [Art. 17].
  • Établir un processus de signalement des incidents graves à l'autorité de surveillance du marché dans un délai maximal de 15 jours, et un plan de surveillance après commercialisation conforme à l'annexe IV [Art. 72, Art. 73].

IT / Sécurité

  • Implémenter des mesures de robustesse et de cybersécurité pour protéger les systèmes d'IA à haut risque contre les erreurs, pannes et tentatives de manipulation par des tiers [Art. 15].
  • Intégrer des fonctions de journalisation automatique (logging) dans les systèmes d'IA à haut risque, permettant la traçabilité des événements pendant toute la durée de fonctionnement [Art. 12].
  • Déployer des contrôles d'accès et des mécanismes de vérification d'intégrité pour les données d'entraînement, de validation et de test, afin de prévenir l'empoisonnement de données (data poisoning) [Art. 10 par. 5, Art. 15 par. 5].

Produit / Ingénierie

  • Concevoir les systèmes d'IA à haut risque de manière à permettre une surveillance humaine effective — y compris la possibilité d'interrompre le système ou de neutraliser ses sorties [Art. 14].
  • Mettre en oeuvre des processus de gouvernance des données garantissant que les jeux de données d'entraînement, de validation et de test sont pertinents, représentatifs et exempts de biais discriminatoires [Art. 10].
  • Rédiger une documentation technique complète conforme à l'annexe IV et des notices d'utilisation claires décrivant les caractéristiques, capacités et limites du système [Art. 11, Art. 13].

Termes clés

Système d'IA
Système automatisé conçu pour fonctionner à différents niveaux d'autonomie et capable de générer des sorties (prédictions, recommandations, décisions) influençant des environnements physiques ou virtuels [Art. 3 par. 1].
Fournisseur
Personne physique ou morale qui développe ou fait développer un système d'IA ou un modèle d'IA à usage général et le met sur le marché ou en service sous son propre nom, à titre onéreux ou gratuit [Art. 3 par. 3].
Déployeur
Personne physique ou morale, autorité publique ou autre organisme utilisant un système d'IA sous sa propre autorité, hors activité personnelle non professionnelle [Art. 3 par. 4].
Système d'IA à haut risque
Système d'IA classé comme tel soit parce qu'il constitue un composant de sécurité d'un produit soumis à évaluation de conformité (art. 6 par. 1), soit parce qu'il relève d'un cas d'utilisation listé à l'annexe III (art. 6 par. 2).
Modèle d'IA à usage général
Modèle d'IA présentant une généralité significative, capable d'exécuter un large éventail de tâches et pouvant être intégré dans divers systèmes en aval, y compris ceux entraînés par auto-supervision à grande échelle [Art. 3 par. 63].
Risque systémique
Risque spécifique aux modèles d'IA à usage général à fort impact, susceptible de se propager à grande échelle dans la chaîne de valeur et d'avoir des effets significatifs sur la santé publique, la sécurité ou les droits fondamentaux [Art. 3 par. 65].
Évaluation de la conformité
Procédure permettant de démontrer que les exigences applicables à un système d'IA à haut risque (chapitre III, section 2) ont été respectées, réalisée en interne ou par un organisme notifié tiers [Art. 3 par. 20, Art. 43].
Hypertrucage (deepfake)
Image, audio ou vidéo généré ou manipulé par l'IA, présentant une ressemblance avec des personnes ou événements existants et pouvant être perçu à tort comme authentique [Art. 3 par. 60].
?

Questions fréquentes

Quand le règlement sur l'IA est-il pleinement applicable ?
Le règlement entre en application de manière échelonnée : les interdictions de pratiques d'IA (chapitre II) s'appliquent depuis le 2 février 2025 ; les obligations relatives aux modèles GPAI et à la gouvernance depuis le 2 août 2025 ; l'ensemble des exigences pour les systèmes à haut risque à partir du 2 août 2026 ; et les systèmes d'IA intégrés comme composants de sécurité dans des produits depuis le 2 août 2027 [Art. 113].
Qu'est-ce qu'un système d'IA a haut risque au sens du règlement ?
Un système d'IA est classé à haut risque s'il est un composant de sécurité d'un produit couvert par la législation d'harmonisation de l'UE (annexe I) et soumis à une évaluation de conformité par un tiers [Art. 6 par. 1], ou s'il relève de l'un des cas d'utilisation listés à l'annexe III (biométrie, infrastructures critiques, emploi, services essentiels, forces de l'ordre, migration, justice) [Art. 6 par. 2].
Les PME et jeunes pousses bénéficient-elles d'allégements ?
Les PME et jeunes pousses ne sont pas exemptées des obligations matérielles du règlement. Toutefois, les amendes sont plafonnées au montant le plus faible entre le pourcentage du chiffre d'affaires et le montant forfaitaire [Art. 99 par. 6]. Les microentreprises peuvent se conformer de manière simplifiée au système de gestion de la qualité [Art. 63]. Les États membres doivent accorder un accès prioritaire aux bacs à sable réglementaires aux PME [Art. 62 par. 1 al. a].
Quelles pratiques d'IA sont interdites ?
Le règlement interdit notamment les systèmes recourant à des techniques subliminales ou manipulatrices, l'exploitation des vulnérabilités liées à l'âge ou au handicap, la notation sociale (social scoring), l'évaluation prédictive du risque d'infraction pénale fondée uniquement sur le profilage, le moissonnage non ciblé d'images faciales, la reconnaissance des émotions sur le lieu de travail et dans les établissements d'enseignement (sauf raisons médicales ou de sécurité), et l'identification biométrique à distance en temps réel dans les espaces accessibles au public (sauf exceptions strictement encadrées) [Art. 5 par. 1].
Qu'est-ce qu'un modèle d'IA à usage général (GPAI) et quelles obligations s'y appliquent ?
Un modèle d'IA à usage général est un modèle capable d'exécuter un large éventail de tâches distinctes et pouvant être intégré dans divers systèmes en aval [Art. 3 par. 63]. Les fournisseurs de GPAI doivent fournir une documentation technique, respecter le droit d'auteur de l'UE et publier un résumé du contenu d'entraînement [Art. 53]. Les modèles présentant un risque systémique (seuil de 10^25 FLOP) sont soumis à des obligations renforcées : évaluation de modèle, atténuation des risques systémiques, signalement d'incidents graves [Art. 51, Art. 55].
Comment fonctionne l'évaluation de conformité pour les systèmes à haut risque ?
La plupart des systèmes d'IA à haut risque peuvent faire l'objet d'une auto-évaluation par le fournisseur sur la base d'un contrôle interne (annexe VI) [Art. 43 par. 1]. Les systèmes d'identification biométrique à distance doivent obligatoirement être évalués par un organisme notifié tiers (annexe VII) [Art. 43 par. 1]. Le fournisseur doit apposer le marquage CE et établir une déclaration UE de conformité [Art. 47, Art. 48].
Existe-t-il un droit des personnes affectées par un système d'IA ?
Toute personne faisant l'objet d'une décision prise sur la base des sorties d'un système d'IA à haut risque visé à l'annexe III a le droit d'obtenir du déployeur des explications claires et pertinentes sur le rôle du système dans la décision et sur les éléments principaux de celle-ci [Art. 86 par. 1]. En outre, toute personne peut déposer une réclamation auprès de l'autorité de surveillance du marché [Art. 85].
3

Facteurs d’évaluation et liste de contrôle

Premium
4

Questions pour votre avocat

Premium
5

Conclusion et résumé

Premium

Analyse détaillée avec liens sources.

Schalten Sie die KI-Analyse frei — mit markierten Fundstellen und direkten Links zu EUR-Lex. 7 Tage kostenlos testen.

Keine Kreditkarte heute. Kündigung jederzeit.